JP6355346B2 - 画像処理装置、画像処理方法、プログラム、及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP6355346B2
JP6355346B2 JP2014014955A JP2014014955A JP6355346B2 JP 6355346 B2 JP6355346 B2 JP 6355346B2 JP 2014014955 A JP2014014955 A JP 2014014955A JP 2014014955 A JP2014014955 A JP 2014014955A JP 6355346 B2 JP6355346 B2 JP 6355346B2
Authority
JP
Japan
Prior art keywords
region
boundary
width
undetermined
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014014955A
Other languages
English (en)
Other versions
JP2015141633A (ja
Inventor
暁艶 戴
暁艶 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014014955A priority Critical patent/JP6355346B2/ja
Priority to US14/606,717 priority patent/US9652855B2/en
Publication of JP2015141633A publication Critical patent/JP2015141633A/ja
Application granted granted Critical
Publication of JP6355346B2 publication Critical patent/JP6355346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本発明は、画像処理システムに関するものであり、具体的には、画像合成などに必要となる画素の不透明度を表現するアルファ画像を好適に生成する画像処理装置及び画像処理方法、プログラム、及び記憶媒体に関する。
画像における対象領域抽出技術は、オブジェクトセグメンテーション技術とアルファマッティング技術に大きく分類出来る。これらの技術は、画像の認識・理解・検索や、合成画像の生成や被写体のリフォーカス等の目的で利用されている。
オブジェクトセグメンテーションは、対象領域を背景領域から切出し、2値の分離画像を生成する技術である。そのための典型的な手法として、映画業界で標準的に用いられているクロマキー法や背景差分法が挙げられる。また、特定の背景を必要としない方法として、ユーザが物体の含まれる範囲を指定し、あるいは、背景と物体の一部を其々ペイントし、そして、色情報に基づき対象領域を抽出する方法が提案されている(非特許文献1、非特許文献2参照)。
しかし、対象領域と背景領域との2値分離を狙うオブジェクトセグメンテーション技術は、頭髪や毛皮などのシルエットの複雑な物体や、半透明部分のある物体を含む画像における高精度な対象領域の抽出が困難である。
図1は、セグメンテーションによって生成された2値の分離画像の一例を示す。図1(A)は入力画像例で、図1(B)は2値分離の結果例である。ここで、抽出された対象領域を白で、背景領域を黒で表し、また、対象領域と背景領域の境界を実線で、実際の物体の輪郭線を点線で表す。
一方、アルファマッティングは、対象領域と背景領域の境界にある画素の透明度(以下、アルファとも呼ぶ)までを推定し、対象領域を一層正確に抽出する技術である。マッティング処理は、基本的に、間違いなく対象領域である部分、間違いなく背景領域である部分、また、どっちの領域なのか明確に言えない部分に対応する3値のトライマップ画像を生成し、未確定領域にある画素のアルファを推定し、アルファ画像を生成する。以下、間違いなく対象領域である部分を「確定前景領域」とも呼び、間違いなく背景領域である部分を「確定背景領域」とも呼び、どっちの領域なのか明確に言えない部分を「未確定な領域」とも呼ぶ。
アルファは、画素が前景か背景かの確率を表すもので、前景と背景の色の合成の比率として捕らえることも出来る。例えば、確定前景領域にある画素のアルファを1、確定背景領域にある画素のアルファを0とすると、未確定領域にある画素のアルファは0と1の間の数値になり、当該画素において、前景が背景の一部を遮蔽していることを意味する。アルファ推定方法はいくつか提案されている(非特許文献3、非特許文献4参照)。
一般に、与えられた入力画像は、前景色と背景色による線形混合のものであるという理論に基づき、入力画像を前景色と背景色に分解し、それによって、未確定領域のアルファを推定する。しかし、どのアルファ推定方法でも、トライマップの入力が必要である。また、アルファ推定の精度は、トライマップの質に大きく影響される。
図2は、トライマップ画像及びアルファ推定の一例を示す。図2(A)は入力画像例である。図2(B)のトライマップ例では、確定背景領域を黒で、確定前景領域を白で、未確定領域をグレーでそれぞれ表す。参考に、物体の輪郭を点線で表す。図2(C)はアルファ推定によって生成されたアルファ画像例である。ここで、図2(B)にある確定前景領域はアルファが1で、白で表し、図2(B)にある確定背景領域はアルファが0で、黒で表し、図2(B)にある未確定領域のアルファ推定結果は0と1の間の数値で、白と黒の中間色であるグレーで表す。
トライマップの生成手法は、手動設定と自動生成に大きく分かれる。手動設定では、ユーザがペイントツールなどを操作して、前景、背景と想定される領域をそれぞれ確定前景、確定背景とし、対象領域の輪郭付近にある領域を未確定領域とし、3値のトライマップ画像をペイントして作成する。自動生成は、主に以下の手法が提案されている。
セグメンテーションによって生成された2値の分離画像に基づく自動生成では、セグメンテーションから抽出された対象領域と背景領域の境界において所定幅の未確定領域を設定する。そして、前景領域に属する画素、背景領域に属する画素、及び、未確定領域に属する画素からなるトライマップ画像を生成する。
セグメンテーションとアルファマッティングの両方に基づく自動生成では、先ず、上述の自動生成方法によってトライマップを生成し、アルファを推定する。そして、アルファが0と1の間にある画素であって、エッジフローベクトルで設定される所定の楕円形状の近傍範囲の画素を未確定画素に設定して更新する。そして、更新前後のトライマップが同一、或いは、略同一か(つまり、収束したか)を判断し、収束していなければ、上記のアルファ推定、トライマップの更新、収束判断といった一連の処理を繰り返して行う(特許文献1参照)。
特開2010−66802号公報
BOYKOV, Y., AND JOLLY, Interactive graph cuts for optimal boundary and region segmentation of objects in N-D images.In Proceedings of IEEEInt. Conf. on Computer Vision, 2001. ROTHER et al., Grabcut - Interactive Foreground Extraction Using Iterated Graph Cuts, ACM Trans. Graph., vol. 23, No. 3, 2004, pp. 309-314. LGrady, T Schiwietz, S Aharon, Random Walks ForInteractive Alpha-matting,Proceedings of VIIP, 2005. Yung-Yu C, et al. A Bayesian Approach to Digital Matting,In Proceedings of IEEE Computer Vision and Pattern Recognition, Vol. II, 264-271, 2001
しかしながら、トライマップ画像の手動生成では、ユーザが対象領域の輪郭に沿って適切に境界領域の太さを設定する必要があり、ツールに習熟しなければならないし、複雑な形状の物体に対して試行錯誤になることが多いため、入力作業が難しく煩雑であった。
また、セグメンテーションの2値分離に基づくトライマップ画像の自動生成では、シルエットの複雑な物体の抽出が高精度に出来なく、それによって等幅に設定された未確定領域及び、そこから派生した確定前景領域、確定背景領域が適切ではない場合がある。未確定領域の幅を一律に狭くすると、本来の物体の輪郭付近は必ずしも未確定領域に入らない。その反面、未確定領域の幅を一律に広くすると、本来の物体の輪郭付近は未確定領域に入れるが、未確定領域の画素の色推定、アルファ推定の誤差は大きく拡散されてしまう。
一方、オブジェクト(処理対象)の外縁部分は必ずしも性質が一律ではない。性質が一律ではない外縁部分に等幅な未確定領域を設定すると、正確なアルファ推定が困難になる。
図3は、セグメンテーションの2値分離から生成したトライマップ画像の一例を示す。図3(A)は入力画像例である。図3(B)の2値分離例では、抽出された対象領域を白で、背景領域を黒で表し、また、その対象領域と背景領域の境界を実線で、実際の物体の輪郭線を点線で表す。物体と背景領域の2値分離は、実際の物体の輪郭とズレがあることが分かった。図3(C)のトライマップ例では、確定背景領域を黒で、確定前景領域を白で、未確定領域をグレーでそれぞれ表す。このトライマップによるアルファ推定処理では、グレー領域にある画素のみの透明度を推定することになる。そのため、楕円301に囲まれたような本来は物体の一部であるはずの領域、即ち、真の境界付近の領域は、黒の確定背景領域に含まれてしまったので、妥当なアルファ推定が出来なくなった。
また、セグメンテーションとアルファマッティング両方に基づくトライマップ画像の自動生成では、セグメンテーションによる初期のトライマップの生成後、マッティングによるトライマップの更新及び、更新後のトライマップによるマッティング処理を繰り返す。このため、処理負荷が大きいし、高精度なアルファ推定の実現が難しい。
一方、近年、単眼カメラに距離測定センサの搭載や、複数カメラから取得する多視点画像などを利用した距離、即ち、奥行きの推定が可能になってきている。特にステレオ撮影等では、同じ対象物が含まれる画像を使って距離推定を行い、基準画像を相互に変更して距離推定値を比較し、推定値が近ければ距離の信頼度が高い、そうでなければ、距離の信頼度が低いというような信頼度を計算することもある。これらの距離情報、即ち、距離値、或いは、距離の信頼度は、有用な情報として画像処理に用いられている。
図4は、距離画像の一例を示すものである。図4(A)は入力画像の一例であるが、この例では、被写体の周囲は不明瞭で、その一部は輝度が低い。図4(B)は入力画像例の距離推定の結果例で、距離の遠近は明度で現している。ここで、明度が高い程、撮影機器までの距離が近いと考えられる。また、距離推定が出来ていない処や、無限遠な処を黒で表す。この例から、被写体と背景領域の境界付近は、正確な距離推定が困難であることが分かる。この傾向から真の境界付近の領域推定が可能になる。一方、この例では、距離情報の特徴を分かりやすく説明するために、被写体部分、背景部分、被写体と背景の境界部分、被写体の輝度の低い部分をそれぞれ均一な距離値で現している。しかし、実際の距離推定画像は、画素毎に違う距離値を持つノイズの沢山載るものであるため、距離情報のみでは境界付近の領域推測が不足である。
本発明はこのような状況に鑑みてなされたものであり、処理対象領域とそれ以外の領域との境界情報及び距離情報に基づき、画像の特性に応じて不等幅のトライマップを生成し、簡易で、高精度な対象領域の抽出を可能にするものである。
上述の課題を解決するために本発明に係る画像処理装置は、画像における処理対象領域とそれ以外の処理対象外領域との境界を取得する境界取得手段と、
所定の位置から前記画像中の複数の点のそれぞれまでの距離値を取得する距離取得手段と、
前記境界取得手段により取得される境界上の複数の境界点のそれぞれに対して、該境界点付近の点について取得された前記距離値に基づいて、未確定領域の幅を設定する幅設定手段と、
前記複数の境界点のそれぞれに対して設定された前記未確定領域の幅に基づいて、前記境界の周囲に未確定領域を設定する未確定領域設定手段と、
処理対象領域から未確定領域を除いた領域を前景領域とし、処理対象外領域から未確定領域を除いた領域を背景領域として、前景領域、背景領域、及び未確定領域を特定する領域情報を生成する領域情報生成手段とを備えることを特徴とする。
本発明の画像処理装置及び画像処理方法、並びにプログラムによれば、入力画像にある物体の境界領域の特性に合わせて未確定領域の幅を制御し、真の境界付近の領域を未確定領域に入るようなトライマップを生成し、アルファを推定することによって、未確定領域のアルファ推定を無駄なく、効率良く行うことができ、正確的に被写体領域を抽出することが出来る。
セグメンテーションによって生成された2値の分離画像の一例を示すものである。 トライマップ画像及びアルファ推定の一例を示すものである。 セグメンテーションの2値分離から生成したトライマップ画像の一例を示すものである。 距離画像の一例を示すものである。 本発明の第1実施形態に係る画像処理装置の機能構成を示すブロック図である。 本発明の第1実施形態に係る画像処理装置の主要部構成を示すブロック図である。 本発明の第1実施形態に係る画像処理方法の流れを示すフローチャートである。 本発明の第1実施形態におけるトライマップ生成処理の流れを示すフローチャートである。 本発明の第1実施形態における境界点の未確定範囲の同定処理を示すフローチャートである。 本発明の第1実施形態における境界点の未確定範囲の同定処理の一例を示すものである。 本発明の第1実施形態における図3(A)に示す画像例のトライマップ生成処理の一例を示すものである。 本発明の第2実施形態における境界点の未確定範囲の同定処理を示すフローチャートである。 本発明の第3実施形態に係る画像処理装置の機能構成を示すブロック図である。 本発明の第3実施形態に係る画像処理方法の流れを示すフローチャートである。 本発明の第3実施形態におけるトライマップ生成処理の流れを示すフローチャートである。 本発明の第3実施形態における境界点の未確定範囲の同定処理を示すフローチャートである。 本発明の第3実施形態における境界点の未確定範囲の同定処理の一例を示すものである。 本発明の第4実施形態に係る画像処理装置の機能構成を示すブロック図である。 本発明の第4実施形態に係る画像処理方法の流れを示すフローチャートである。 本発明の第4実施形態におけるトライマップ修正処理の流れを示すフローチャートである。 本発明の第4実施形態におけるトライマップ修正処理の一例を示すものである。 処理対象領域、境界線、処理対象外領域、前景領域、未確定領域、背景領域などの一例を示すものである。
以下、図面を参照して、本発明に係る画像処理装置を用いた被写体抽出処理について詳細に説明する。ただし、この実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術の範囲は、特許請求の範囲によって確定されるものであって、以下の個別の実施形態によって限定されるわけではない。
本発明の実施形態に係る画像処理装置は、境界取得手段と、未確定領域設定手段と、領域情報生成手段とを備える。
境界取得手段は、処理対象領域とそれ以外の処理対象外領域との境界を取得する。
未確定領域設定手段は、境界取得手段により取得される境界の周囲に未確定領域を設定する。
領域情報生成手段は、処理対象領域から未確定領域を除いた領域を前景領域とし、処理対象外領域から未確定領域を除いた領域を背景領域として、前景領域、背景領域、及び未確定領域を特定する領域情報を生成する。
未確定領域設定手段は、境界取得手段により取得される境界の周囲画素の特徴量に基づき、境界の周囲の未確定領域の幅を設定することを特徴とする。
境界取得手段は、各画素が処理対象領域に存在する画素であるか、それとも処理対象外領域に存在する画素であるかを示す2値情報を取得することにより処理対象領域と処理対象外領域の境界を取得するとしても良い。
未確定領域設定手段は、境界の周囲画素の特徴量のばらつきが小さい範囲は未確定領域を狭く設定し、境界の周囲画素の特徴量のばらつきが大きい範囲は未確定領域を広く設定するとしても良い。
特徴量は、距離情報を含む。距離情報は、距離値(距離の推定値)や距離の信頼度を含む。
[第1実施形態]
図5は、本発明の実施形態に係る画像処理装置の構成を示すブロック図である。
<画像処理装置の構成>
画像処理装置は、トライマップ生成部11、アルファ推定部12を備えている。
トライマップ生成部11は、境界情報及び距離情報を入力とし、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップ画像を生成する。
図22(A)に示すように、境界情報は、処理対象領域とそれ以外の領域(処理対象外領域)との境界の情報である。
図22(B)に示すように、前景領域は処理対象領域から未確定領域を除いた領域であり、背景領域は処理対象外領域から未確定領域を除いた領域である。
境界情報は、図22(c)に示すような、処理対象領域に存在する画素であるか処理対象外領域に存在する画素であるかを示す2値情報でも良いし、境界線でも良いし、境界点のリストでも良い。距離情報は、処理対象画像にある各画素の撮影装置までの遠近を表す距離でも良いし、距離の信頼度でも良い。
トライマップ生成部11は、境界取得部1101と未確定領域設定部1102と領域情報生成部1103とを備える。
境界取得部1101は処理対象領域とそれ以外の処理対象外領域との境界を取得する。
未確定領域設定部1102は、境界取得部1101により取得される境界の周囲に未確定領域を設定する。未確定領域設定部1102は、境界取得部1101により取得される境界の周囲画素の特徴量に基づき、境界の周囲の未確定領域の幅を設定する。
領域情報生成部1103は、処理対象領域から未確定領域を除いた領域を前景領域とし、処理対象外領域から未確定領域を除いた領域を背景領域として、前景領域、背景領域、及び未確定領域を特定する領域情報を生成する。
アルファ推定部12は、トライマップ生成部11で生成された3値のトライマップにある未確定領域において、各画素の色情報を利用してアルファを推定し、被写体を抽出する。
<システム構成>
図6は、本発明の第1実施形態に係る画像処理装置を実現した一実施形態である撮影装置の主要部構成を示すブロック図である。
中央処理装置CPU101は、以下に述べる各部を統括的に制御する。
撮影部102は、画像距離データを取得する。
バス103は各種データの転送経路となる。例えば、撮影部102によって取得されたデジタルデータはこのバス103を介して所定の処理部に送られる。
表示部104は撮影画像や文字の表示を行う。例えば、液晶ディスプレイが用いられる。表示部104はタッチスクリーン機能を有していても良い。
表示制御部105は、表示部104に表示される撮影画像や文字の表示制御を行う。
操作部106はユーザの指示を受け取る。ボタンや撮影モードダイヤルなどが含まれる。この操作による設定内容はCPUを介して所定の処理を制御する。
本発明での領域の手動指定部は、表示制御部105と操作部106を使うことにより容易に実現できる。
撮影制御部107は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU101からの指示に基づいた撮像系の制御を行う。
デジタル信号処理部108は、バス103を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。
画像処理部109は、撮影部102で取得された画像、或いは、デジタル信号処理部108から出力される画像から出力されるデジタル画像、或いは、操作部106からユーザの指定に応じて画像処理を行う。
圧縮/伸長部110は、デジタルデータ、或いは、画像処理の結果をJPEGやMPEGやベクトル化などのファイルフォーマットへの変換、或いは、符号化制御を行う。
内部メモリ111は、CPU101の主メモリ、ワークエリア等として機能するほか、CPU101で実行される制御プラグラム等を格納する。
外部メモリ制御部112は、PCやその他のメディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。
図5の画像処理装置は、図6の撮影装置における撮影部102からの撮影画像データ、或いは、内部メモリ111、外部メモリ113に蓄積した画像データを処理対象とし、CPU101による制御で被写体抽出を行う。また、図5の画像処理装置の画像処理結果は、図6の撮影装置における圧縮/伸長部110において符号化する、或いは、内部メモリ111、外部メモリ113に保存する、或いは、他の画像処理に用いる。
<画像処理方法の流れ>
図7は、本実施形態に係る図5に示される画像処理装置における、入力画像から被写体の抽出結果を得るための処理を示すフローチャートである。
先ず、ステップS11では、処理対象画像の境界情報及び距離情報を入力する。境界情報は、処理対象領域とそれ以外の領域の境界、即ち、前景領域と背景領域の2値情報の境界である。距離情報は、処理対象画像にある各画素に対応する物体から撮影装置までの距離を表す距離値、或いは、距離の信頼度を表す情報である。
次に、ステップS12では、境界情報及び距離情報を参照し、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップを生成する。このトライマップ生成処理は、前景領域と背景領域の間にある各境界画素おいて、周囲にある画素(以下、「周囲画素」とも記載する)の距離情報を参照し、トライマップの未確定領域の幅を決める。このトライマップ生成処理の詳細について、図8を参照して後述する。
次に、ステップS13では、処理対象画像、即ち、色画像、を入力する。
次に、ステップS14では、ステップS12により生成されたトライマップにある未確定領域において、各画素の色情報に基づき、構成する前景色と背景色を推定し、アルファを推定する。このアルファ推定処理の詳細について後述する。
<ステップS12:トライマップ生成処理>
第1実施形態におけるトライマップ生成処理の詳細について、図8を参照して説明する。
先ず、ステップS121では、境界情報を入力する。
次に、ステップS122では、処理対象となる境界点を取得する。
次に、ステップS123では、距離画像を入力する。ここで、距離推定が出来ていない処を黒で表し、距離値は低い値になる。
次に、ステップS124では、処理対象となる境界点において、周囲画素の特徴量(距離情報)を参照して、未確定範囲を同定する。この境界点の未確定範囲の同定処理の詳細について、図9を参照して説明する。
次に、ステップS125では、全ての境界点は処理済みであるかを判断する。まだ未処理の境界点があれば、上記ステップS122からステップS124までの処理を繰り返して行う。未処理の境界点がなければ、ステップS126では、上記のすべての境界点の未確定範囲の情報によってトライマップ画像を生成する。
<ステップS124:境界点の未確定範囲の同定処理>
第1実施形態における境界点の未確定範囲の同定処理の詳細について、図9を参照して説明する。
先ず、ステップS12401では、処理対象となる境界点の座標情報(X、Y)を取得する。
次に、ステップS12402からステップS12410まで、当該境界点の周囲画素の距離値に基づき未確定範囲の幅を制御する。
ステップS12402では、処理対象となる境界点の左隣りにある画素に注目し、当該画素は距離推定が未確定な画素であるかどうかを判断する。画素の距離値が閾値より低ければ、当該画素は距離推定の未確定な画素である(つまり、不安定な画素である)と判断し、ステップS12403に進む。画素の距離値が閾値より低くなければ、ステップS12404に進む。
ステップS12403では、未確定である(つまり、不安定である)と判断した画素の左隣りにある画素に注目し、ステップS12402と同様の判断処理を繰り返す。判断の対象となっている画素の距離値が閾値より低くなければ、当該画素は距離値の未確定な画素でない(つまり、安定な画素である)と判断し、ステップS12404に入る。
ステップS12404では、未確定な画素ではないと判断した画素の座標(X、Y)を記録する。
同様に、境界点の右にある画素に注目する。
ステップS12405では、処理対象となる境界点の右隣りにある画素に注目し、当該画素が距離推定の未確定な画素であるかどうかを判断する。この画素の距離値が低ければ、当該画素は距離推定の未確定な画素であると判断し、ステップS12406に進む。距離値が低くなければ、ステップS12407に進む。
ステップS12406では、未確定であると判断した画素の右隣りにある画素に注目し、ステップS12405と同様の判断処理を繰り返す。判断の対象となっている画素の距離値が低くなければ、当該画素は距離値の未確定な画素でないと判断し、ステップS12407に入る。
ステップS12407では、未確定な画素ではないと判断した画素の座標(X、Y)を記録する。
そして、ステップS12408では、2つのX座標の差の絶対値(つまり、|X−X|)がある閾値T以上であるかどうかを判断する。|X−X|がT未満であれば、ステップS12409では、未確定領域の幅をT1として設定するが、|X−X|がT以上であれば、ステップS12410では、未確定領域の幅をT2として設定する。ただし、T1<T2である。
<境界点の未確定範囲の同定処理の処理例>
図10は、第1実施形態における境界点の未確定範囲の同定処理の一例を示す。
ここで、処理対象となる境界点はO(X,Y)で表す。当該境界点の未確定範囲の決定のため、左右の隣にある画素の距離情報に基づく処理を行う。左にある△で現す画素O(X1、Y)は、距離推定の困難な画素である。その左にある○で表す画素O(XL、Y)は、距離推定が出来ている画素である。同様に、その右にある○で表す画素O(XR、Y)は右にある距離推定が出来ている画素である。|X−X|の値により未確定領域の幅を制御する。
<トライマップの生成例>
図11は、第1実施形態における図3(A)に示す入力画像例のトライマップ生成処理の一例を示すものである。
ここで、確定背景領域を黒で表し、確定前景領域を白で表し、未確定領域をグレーで表し、参考に、実際の物体の輪郭線を点線で表す。この例で示すように、本実施形態のトライマップ生成では、物体の周囲に細かい表現が必要と思われる部分を未確定領域として太く、そうではない部分を未確定領域として狭く決める。それによって、真の境界付近の領域を適切に未確定領域に入れるトライマップの生成が可能になり、アルファ推定の精度向上に繋がる。
<ステップS14:アルファ推定処理>
アルファ推定処理において、入力画像Iは、前景色Fと背景色Bの線形混合によって生成される結果であるとして、以下の式が仮定される。
I(x)=α(x)F(x)+(1−α(x))B(x)
ここで、xは画像上の画素の座標を示すもので、α(x)は当該画素のアルファを示すものである。このアルファ推定処理は、公知の解法を利用することが可能である。
上記の実施形態では、境界にある各境界点において、左右にある周囲画素の距離推定が出来ていないかを判断し、未確定領域の幅を決定するものとした。左右の代わりに、上下にある周囲画素、或いは、上下左右にある周囲画素、或いは、境界線の法線にある周囲画素に注目し、距離推定が出来ていないかを判断し、未確定領域の幅を制御しても良い。
また、上記の実施形態では、前景領域と背景領域の境界にある各境界点において、周囲画素の距離(例えば、前記の|X−X|)が一定の数値以上であるかどうかによって、距離推定の出来具合を判断した。また距離推定が出来ていない画素間の範囲によって、未確定領域の幅を制御して設定するものとした。周囲画素の距離値がある範囲内であるかどうかによって、距離推定出来具合を判断しても良い。
また、上記の実施形態では、前景領域と背景領域の境界にある各境界点において、周囲画素の距離推定が出来ていない画素間の範囲はある閾値以上であるかどうかに基づき、未確定領域の幅を2段階に設定するものとした。周囲画素の距離推定が出来ていない画素間の範囲を数段階に分け、未確定領域の幅を数段階、或いは、連続に、設定しても良い。
[第2実施形態]
第1実施形態では、対象領域とそれ以外の領域の境界にある各境界点において、周囲画素の距離推定が出来ていないかを判断し、未確定領域の幅を決定した。本実施形態は、各境界点において、周囲画素の距離の信頼度に基づき、未確定領域の幅を決定する。
<ステップS124:境界点の未確定範囲の同定処理>
第2実施形態における境界点の未確定範囲の同定処理の詳細について、図12を参照して説明する。
先ず、ステップS124201では、処理対象となる境界点の座標情報(X、Y)を取得する。次に、ステップS124202からステップS124210まで、当該境界点の周囲画素の距離の信頼度に基づき未確定範囲の幅を決定する。
ステップS124202では、処理対象となる境界点の左隣りにある画素に注目し、当該画素が距離推定の信頼度の高い画素であるかどうかを判断する。この画素の距離推定の信頼度が閾値より高くなければ、距離推定は信頼出来ない画素と判断し、ステップS124203に進む。この画素の距離推定の信頼度が閾値より高ければ、ステップS124204に進む。
ステップS124203では、距離推定の信頼度が高くないと判断した画素の左隣りにある画素に注目し、ステップS124202と同様の判断処理を繰り返す。判断の対象となっている画素の距離の信頼度が閾値より高ければ、距離推定は信頼出来る画素と判断し、ステップS124204に入る。
ステップS124204では、上記に境界点の左に取得した画素の座標(X、Y)を記録する。
同様に、境界点の右にある画素に注目する。
ステップS124205では、処理対象となる境界点の右隣りにある画素に注目し、当該画素が距離推定の信頼度の高い画素であるかどうかを判断する。この画素の距離推定の信頼度が高くなければ、距離推定は信頼出来ない画素と判断し、ステップS124206に進む。信頼度が高ければ、ステップS124207に進む。
ステップS124206では、距離推定の信頼度が高くないと判断した画素の右隣りにある画素に注目し、ステップS124205と同様の判断処理を繰り返す。判断の対象となっている画素の距離の信頼度が高ければ、距離推定は信頼出来る画素と判断し、ステップS124207に入る。
ステップS124207では、距離の信頼度が高いと判断した画素の座標(X、Y)を記録する。
そして、ステップS124208では、2つのX座標の差の絶対値(つまり、|X−X|)がある閾値T以上であるかどうかを判断する。|X−X|がT未満であれば、ステップS124209では、未確定領域の幅をT1として設定するが、|X−X|がT以上であれば、ステップS124210では、未確定領域の幅をT2として設定する。ただし、T1<T2である。
第2実施形態では、各境界点において、近傍にある画素の距離推定の信頼度が高いかどうかを判断し、未確定領域の幅を決定するものである。
[第3実施形態]
第1、第2実施形態では、対象領域とそれ以外の領域の境界にある境界点において、周囲画素の距離情報に基づき未確定領域の幅を決定した。本実施形態では、各境界点において、周囲画素のエッジ方向の分散に基づき未確定領域の幅を決定する。
「エッジ」とは画像の明るさが鋭敏に変化している個所を意味する。エッジ検出は、例えばSobelやPrewittやLaplacianなどのエッジ検出オペレータを用いて行うことができる。各画素について、エッジ検出オペレータを画像の水平方向、垂直方向について適用する。そして、その出力値をもとに、エッジ強度及びエッジ方向を算出する。エッジ検出オペレータの水平方向の出力値をfx、垂直方向の出力値をfyとした場合、エッジ強度I、エッジ方向Φは、例えば下記式によって算出することができる。
I=(fx^2+fy^2)^(1/2)
φ=arctan(fy/fx)
図13は、本発明の実施形態に係る画像処理装置の構成を示すブロック図である。
<画像処理装置の構成>
画像処理装置は、トライマップ生成部31、アルファ推定部32、エッジ計算部33を備えている。
トライマップ生成部31は、境界情報及び処理対象画像を入力とし、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップ画像を生成する。境界情報は、処理対象領域とそれ以外の領域の境界の情報であるが、処理対象画像の前景領域と背景領域の2値画像でも良いし、境界線でも良いし、境界点のリストでも良い。
アルファ推定部32は、トリマップ生成部31で生成された3値のトライマップにある未確定領域において、各画素の色情報を利用してアフファを推定し、被写体を抽出する。
エッジ計算部33は、境界上の各点の周囲画素のエッジ方向とエッジ方向の分散を計算する。
図14は、本実施形態に係る図13に示される画像処理装置における、入力画像から被写体の抽出結果を得るための処理を示すフローチャートである。
先ず、ステップS31では、処理対象画像の境界情報を入力する。
次に、ステップS32では、処理対象画像を入力する。
次に、ステップS33では、境界情報及び処理対象画像を参照し、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップを生成する。このトライマップ生成処理は、前景領域と背景領域の間にある各境界画素おいて、周囲画素のエッジ方向を参照し、トライマップの未確定領域の幅を決める。このトライマップ生成処理の詳細について、図15を参照して後述する。
次に、ステップS34では、ステップS33により生成されたトライマップにある未確定領域において、各画素の色情報に基づき、構成する前景色と背景色を推定し、アルファを推定する。
<ステップS33:トライマップ生成処理>
第3実施形態におけるトライマップ生成処理の詳細について、図15を参照して説明する。
先ず、ステップS331では、境界情報を入力する。
次に、ステップS332では、処理対象画像を入力する。
次に、ステップS333では、境界点を取得する。
次に、ステップS334では、処理対象となる境界点において、周囲画素の色情報により取得するエッジ方向を参照して、未確定範囲を同定する。この境界点の未確定範囲の同定処理の詳細について、図16を参照して説明する。
次に、ステップS335では、全ての境界点は処理済みであるかを判断する。まだ未処理の境界点があれば、上記ステップS334の処理を繰り返して行う。未処理の境界点がなければ、ステップS336では、上記のすべての境界点の未確定範囲の情報によってトライマップ画像を生成する。
<ステップS334:境界点の未確定範囲の同定処理>
第3実施形態における境界点の未確定範囲の同定処理の詳細について、図16を参照して説明する。
先ず、ステップS3341では、処理対象となる境界点の座標情報(X、Y)を取得する。
次に、ステップS3342からステップS3345まで、当該境界点の周囲画素のエッジ方向の分散に基づき未確定範囲の幅を決定する。
ステップS3342では、処理対象となる境界点の周囲画素のエッジを取り、エッジ方向を計算し、エッジ方向の分散を求める。
ステップS3343では、エッジ方向の分散が所定値より大きいかどうかを判断する。エッジ方向の分散が所定値以下であれば、ステップS3344では、当該境界点付近をエッジが一定の方向に示す領域とし、未確定領域の幅をT1に設定する。エッジ方向の分散が所定値より大きければ、ステップS3345では、当該境界点付近をエッジがばらける領域とし、未確定領域の幅をT2に設定する。ただし、T2はT1より大である。
<境界点の未確定範囲の同定処理の処理例>
図17は、第3実施形態における境界点の未確定範囲の同定処理の一例を示す。
本実施形態では、境界にある各境界点において、周囲画素のエッジ方向の分散に基づき未確定領域の幅を決定したが、エッジの方向性の統計が分かるその他の指標を使っても良い。
また、本実施形態では、境界にある各境界点において、周囲画素のエッジ方向の分散に基づき未確定領域の幅を2段階に制御するものとしたが、分散の重み付けによって未確定領域の幅を制御しても良い。
[第4実施形態]
第1、第2実施形態では、対象領域とそれ以外の領域の境界にある境界点において、周囲画素の距離情報に基づき未確定領域の幅を決定した。第3実施形態では、対象領域とそれ以外の領域の境界にある境界点において、周囲画素のエッジの方向性に基づき未確定領域の幅を決定した。本実施形態は、境界点において、周囲画素の距離情報に基づき未確定領域の幅を仮に決定し、更に、エッジ情報に基づき仮に決定した幅が妥当かを判断し、判断結果に応じて幅を修正して、未確定領域の幅を決定する。
図18は、本発明の実施形態に係る画像処理装置の構成を示すブロック図である。
<画像処理装置の構成>
画像処理装置は、トライマップ生成部41、トライマップ修正部(未確定領域修正手段)42、アルファ推定部43を備えている。
トライマップ生成部41は、境界情報を及び処理対象画像を入力し、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップ画像を生成する。
トライマップ修正部(未確定領域修正手段)42は、トライマップ生成部41により生成されたトライマップにノイズ、即ち、設定ミスがあるかどうかを判断し、ノイズがあれば未確定領域の幅を修正する。
アルファ推定部43は、トリマップ生成部42で生成された3値のトライマップにある未確定領域において、各画素の色情報を利用してアルファを推定し、被写体を抽出する。
図19は、本実施形態に係る図18に示される画像処理装置における、入力画像から被写体の抽出結果を得るための処理を示すフローチャートである。
先ず、ステップS41では、処理対象画像の境界情報、距離情報を入力する。
次に、ステップS42では、境界情報及び処理対象画像を参照し、確定前景領域、確定背景領域、及び未確定領域からなる3値のトライマップを生成する。このトライマップ生成処理は、第1、第2実施形態と同様である。
次に、ステップS43では、処理対象画像を入力する。
次に、ステップS44では、境界点の周囲画素の色情報によってエッジ抽出を行い、エッジ方向およびエッジ方向の分散を計算し、エッジ方向の分散に基づき、未確定領域にノイズがあるかを判断し、トライマップを修正する。このトライマップ生成処理の詳細について、図20を参照して後述する。
次に、ステップS45では、ステップS44により生成されたトライマップにある未確定領域において、各画素の色情報に基づき、構成する前景色と背景色を推定し、アルファを推定する。
<ステップS44:トライマップ修正処理>
第4実施形態におけるトライマップ修正処理の詳細について、図20を参照して説明する。
先ず、ステップS4401では、処理対象となる境界点座標(X、Y)及び、当該境界点の未確定領域の幅(H)を取得する。
次に、ステップS4402では、当該境界点の未確定領域の幅(H)と、その前に処理した境界点の未確定領域の幅(ここで、(HX−1)で表す)とを比較する。上記未確定領域の幅の差がある閾値T以上であれば、ステップS4403からステップS4405では、当該未確定領域の幅(H)はノイズであるかどうかを判断する。
ステップS4403では、当該境界点の周囲にある画素のエッジ方向の分散を計算する。
ステップS4404では、エッジ方向の分散が所定範囲内(閾値以下)であれば、ステップS4405に進む。ステップS4405では、当該未確定領域の幅(H)はノイズであると判断し、ステップS4406に進む。ステップS4406では、当該未確定領域の幅(H)を(HX−1)との差が小さくなるように調整する。エッジ方向の分散が所定範囲外であれば、ステップS4407では、当該境界点の未確定領域の幅(H)をそのままに設定する。
「未確定領域の幅(Hx)と(Hx−1)の差が大きい」場合とは、例えば「未確定領域の幅(Hx)は広いが、未確定領域の幅(Hx−1)は狭い。」という場合である。また、「未確定領域の幅(Hx)は狭いが、未確定領域の幅(Hx−1)は広い。」という場合も含まれる。
このような場合、境界点Xの周囲画素のエッジ方向の分散は通常、所定範囲を超える(閾値を超える)と考えられる。
つまり、「未確定領域の幅(Hx)と(Hx−1)との差が大きい」にもかかわらず、境界点Xの周囲画素のエッジ方向の分散が小さい場合(閾値以下の場合)、「未確定領域の幅Hx」はノイズである可能性が高い。
「未確定領域の幅(H)を(HX−1)との差が小さくなるように調整する」とは、例えば「未確定領域の幅(H)を(HX−1)と等しい値に変更する」ことが含まれる。
ステップS4408では、全ての境界点において処理済みであるかどうかを判断する。まだ未処理の境界点があれば、ステップS4401に入り、上記のステップS4407までの処理を繰り返し行うが、未処理の境界点がなければ、上記の修正処理を終える。
<トライマップ修正処理の処理例>
図21は、第4実施形態におけるトライマップ修正処理の一例を示すものである。
図21(A)は髪の毛を表現する画像の一部で、図21(B)は当該画像のトライマップ例である。髪の毛の具合によって本の一部だけ未確定領域の幅が尖っている結果になる。
第4実施形態では、境界情報及び距離情報に基づきトライマップを生成し、更に境界周囲画素のエッジ情報に基づき生成されたトライマップの精度を向上するものである。
(他の実施形態)
本発明の被写体抽出の実施形態の他の応用例として、被写体や背景など任意の部分にピントを合わせ、それ以外をぼかすというリフォーカス処理、などが考えられる。
また、本発明のアルファ推定の実施形態の他の応用例として、多眼撮影装置から取得する複数の画像のセグメンテーションや、深度画像の高精度化、なども考えられる。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェア(画像処理プログラム)のプログラムコードを記録したコンピュータ読み取り可能な記憶媒体を、システムあるいは装置に供給することによっても、達成されることは言うまでもない。また、システムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。また、プログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態が実現される場合も含まれることは言うまでもない。
11 トライマップ生成部
12 アルファ推定部
1101 境界取得部
1102 未確定領域設定部
1103 領域情報生成部

Claims (8)

  1. 画像における処理対象領域とそれ以外の処理対象外領域との境界を取得する境界取得手段と、
    所定の位置から前記画像中の複数の点のそれぞれまでの距離値を取得する距離取得手段と、
    前記境界取得手段により取得される境界上の複数の境界点のそれぞれに対して、該境界点付近の点について取得された前記距離値に基づいて、未確定領域の幅を設定する幅設定手段と、
    前記複数の境界点のそれぞれに対して設定された前記未確定領域の幅に基づいて、前記境界の周囲に未確定領域を設定する未確定領域設定手段と、
    処理対象領域から未確定領域を除いた領域を前景領域とし、処理対象外領域から未確定領域を除いた領域を背景領域として、前景領域、背景領域、及び未確定領域を特定する領域情報を生成する領域情報生成手段とを備えることを特徴とする画像処理装置。
  2. 前記境界取得手段は、
    各画素が処理対象領域に存在する画素であるか処理対象外領域に存在する画素であるかを示す2値情報を取得することにより処理対象領域と処理対象外領域の境界を取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、
    前記境界点付近の点について取得された前記距離値が安定であるかを判定し、
    前記付近の点の前記距離が不安定な境界点に対する未確定領域の幅を広く設定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、
    前記境界点付近の点について取得された前記距離の信頼度を求め
    前記付近の点について取得された前記距離値の信頼度が低い境界点に対する未確定領域の幅を広く設定することを特徴とする請求項1又は2に記載の画像処理装置。
  5. エッジ計算手段と未確定領域修正手段とをさらに備え、
    前記エッジ計算手段は、
    前記境界上の各点の周囲画素のエッジ方向とエッジ方向の分散を計算し、
    前記未確定領域修正手段は、
    境界点Xの未確定領域の幅Hxと境界点X−1の未確定領域の幅Hx−1との差を算出し、
    未確定領域の幅Hxと未確定領域の幅Hx−1との差が第1の閾値以上である場合に、境界点Xの周囲画素のエッジ方向の分散と第2の閾値とを比較し、
    境界点Xの周囲画素のエッジ方向の分散が第2の閾値以下である場合に、未確定領域の幅Hxと未確定領域の幅Hx−1との差が小さくなるように、未確定領域の幅Hxを変更し、
    未確定領域の幅Hxと未確定領域の幅Hx−1との差が第1の閾値以上でない場合、又は境界点Xの周囲画素のエッジ方向の分散が第2の閾値以下でない場合に、未確定領域の幅Hxをそのままとする
    ことを特徴とする請求項又はに記載の画像処理装置。
  6. 画像における処理対象領域とそれ以外の処理対象外領域との境界を取得する境界取得工程と、
    所定の位置から前記画像中の複数の点のそれぞれまでの距離値を取得する距離取得工程と、
    前記境界取得工程により取得される境界上の複数の境界点のそれぞれに対して、該境界点付近の点について取得された前記距離値に基づいて、未確定領域の幅を設定する設定工程と、
    前記複数の境界点のそれぞれに対して設定された前記未確定領域の幅に基づいて、前記境界の周囲に未確定領域を設定する未確定領域設定工程と、
    処理対象領域から未確定領域を除いた領域を前景領域とし、処理対象外領域から未確定
    領域を除いた領域を背景領域として、前景領域、背景領域、及び未確定領域を特定する領
    域情報を生成する領域情報生成工程と、を備えた、
    ことを特徴とする画像処理方法。
  7. 請求項に記載の各工程をコンピュータに実行させるための画像処理プログラム。
  8. 請求項に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記憶媒体。
JP2014014955A 2014-01-29 2014-01-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体 Active JP6355346B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014014955A JP6355346B2 (ja) 2014-01-29 2014-01-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US14/606,717 US9652855B2 (en) 2014-01-29 2015-01-27 Image processing apparatus that identifies image area, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014955A JP6355346B2 (ja) 2014-01-29 2014-01-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2015141633A JP2015141633A (ja) 2015-08-03
JP6355346B2 true JP6355346B2 (ja) 2018-07-11

Family

ID=53679514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014955A Active JP6355346B2 (ja) 2014-01-29 2014-01-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US9652855B2 (ja)
JP (1) JP6355346B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203282A1 (en) * 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
FR3047597B1 (fr) * 2016-01-04 2018-01-19 Laoviland Experience Procede de traitement graphique d'images
JP6742863B2 (ja) * 2016-09-02 2020-08-19 オリンパス株式会社 顕微鏡画像処理装置、方法およびプログラム
US10607318B2 (en) * 2016-12-30 2020-03-31 Facebook, Inc. Systems and methods for image matting
JP6676563B2 (ja) * 2017-02-22 2020-04-08 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
EP4068203A1 (en) * 2017-05-09 2022-10-05 HeartFlow, Inc. Systems and methods for anatomic structure segmentation in image analysis
CN109697722B (zh) * 2017-10-23 2021-10-15 北京京东尚科信息技术有限公司 用于生成三分图的方法及装置
JP6715289B2 (ja) * 2018-05-24 2020-07-01 日本電信電話株式会社 映像処理装置、映像処理方法、および映像処理プログラム
CN109993761B (zh) 2018-06-29 2021-04-09 长城汽车股份有限公司 一种三值图像获取方法、装置及车辆
CN110335277A (zh) * 2019-05-07 2019-10-15 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
US10984558B2 (en) * 2019-05-09 2021-04-20 Disney Enterprises, Inc. Learning-based sampling for image matting
US11195283B2 (en) 2019-07-15 2021-12-07 Google Llc Video background substraction using depth
EP3866107A1 (en) * 2020-02-14 2021-08-18 Koninklijke Philips N.V. Model-based image segmentation
CN113570614A (zh) * 2021-01-18 2021-10-29 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
JP5045619B2 (ja) * 2008-09-08 2012-10-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8391594B1 (en) * 2009-05-28 2013-03-05 Adobe Systems Incorporated Method and apparatus for generating variable-width border masks
JP5865078B2 (ja) * 2011-12-28 2016-02-17 キヤノン株式会社 画像処理装置および画像処理方法
US8792718B2 (en) * 2012-06-29 2014-07-29 Adobe Systems Incorporated Temporal matte filter for video matting

Also Published As

Publication number Publication date
US20150213611A1 (en) 2015-07-30
US9652855B2 (en) 2017-05-16
JP2015141633A (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
JP6355346B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
US8805065B2 (en) Image processing apparatus and image processing method
CN106899781B (zh) 一种图像处理方法及电子设备
US9152878B2 (en) Image processing apparatus, image processing method, and storage medium
EP3644599B1 (en) Video processing method and apparatus, electronic device, and storage medium
WO2012074361A1 (en) Method of image segmentation using intensity and depth information
CN111563908B (zh) 一种图像处理方法及相关装置
KR101624801B1 (ko) 전경 물체 추출을 위한 매팅 방법 및 이를 수행하는 장치
CN108234826B (zh) 图像处理方法及装置
JP5914046B2 (ja) 画像処理装置および画像処理方法
JP2010020581A (ja) 不要物を除去した画像合成システム
AU2016273984A1 (en) Modifying a perceptual attribute of an image using an inaccurate depth map
AU2016273979A1 (en) System and method for adjusting perceived depth of an image
TWI479455B (zh) 全對焦影像之建立方法
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011113177A (ja) 被写体3次元モデルを構築する方法およびプログラム
JP2008147714A (ja) 画像処理装置およびその方法
KR102112019B1 (ko) 중간시점 영상 생성 장치 및 방법
US10839540B2 (en) Apparatus and method for generating intermediate view image
US11257236B2 (en) Method for estimating a depth for pixels, corresponding device and computer program product
JP2009157766A (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R151 Written notification of patent or utility model registration

Ref document number: 6355346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03