JP2004516589A - デジタルビデオにおける複合シーンからの画像抽出 - Google Patents

デジタルビデオにおける複合シーンからの画像抽出 Download PDF

Info

Publication number
JP2004516589A
JP2004516589A JP2002553319A JP2002553319A JP2004516589A JP 2004516589 A JP2004516589 A JP 2004516589A JP 2002553319 A JP2002553319 A JP 2002553319A JP 2002553319 A JP2002553319 A JP 2002553319A JP 2004516589 A JP2004516589 A JP 2004516589A
Authority
JP
Japan
Prior art keywords
path
foreground
boundary region
instructions
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002553319A
Other languages
English (en)
Other versions
JP4145652B2 (ja
JP2004516589A5 (ja
Inventor
グレッグ ディー. ウィレンスキー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of JP2004516589A publication Critical patent/JP2004516589A/ja
Publication of JP2004516589A5 publication Critical patent/JP2004516589A5/ja
Application granted granted Critical
Publication of JP4145652B2 publication Critical patent/JP4145652B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform

Abstract

コンピュータプログラムプロダクトを包含する本方法及び装置は、デジタル画像のバックグラウンド部分からフォアグラウンド部分をマスキングし且つ抽出するための技術を実現し且つ使用する(図1)。本方法においては、第一境界領域を画定する第一入力を受取り、それは第一デジタル画像におけるバックグラウンド部分の少なくとも一部とフォアグラウンド部分の少なくとも一部とを包含している(図3A)。第二境界領域を画定する第二入力を受取り、それは第二デジタル画像におけるバックグラウンド部分の少なくとも一部とフォアグラウンド部分の少なくとも一部とを包含している(図6)。第一及び第二デジタル画像の時間において中間にある画像に対し中間境界領域を補間し、且つ第一(図7)、第二及び中間境界領域を、デジタルビデオにおけるバックグラウンド部分からフォアグラウンド部分をマスキングするために使用する(図8)。
【選択図】図1

Description

【0001】
【発明の属する技術分野】
本発明は、大略、計算システムに関するものであって、更に詳細には、デジタルビデオにおいて複合シーンからオブジェクトをマスキングし且つ抽出するための方法及びシステムに関するものである。
【0002】
【従来の技術】
デジタル画像の処理における一般的な作業は、バックグラウンドシーンから1個又はそれ以上のフォアグラウンドオブジェクトを抽出することである。特に、バックグラウンドが複合的であり且つ幾つかの異なるカラーを包含する場合に、正確な態様でオブジェクトを抽出することに関連して多数の困難性が存在している。
【0003】
1つの困難性は、オブジェクトがバックグラウンドと混合する場合があることであり、即ち、オブジェクトのエッジ即ち端部におけるピクセルがフォアグラウンドとバックグラウンドの両方からの寄与分を有する場合があり且つそのピクセルのカラーはフォアグラウンドのカラーとバックグラウンドのカラーとの混合したものとなる。別の困難性はオブジェクトの複雑性に関するものであり、即ち、オブジェクトのボーダー即ち境界が識別を行うのに厄介な作業を必要とするかなりの詳細を包含している場合がある。更に、これらの問題が組合わせられている場合があり、例えば、オブジェクトが髪又は毛を有している場合である。髪又は毛の形状は複雑であり、且つ細い繊維を有する領域はかなりのカラー即ち色の混合を発生する。このことは、バックグラウンドからオブジェクトを正確に抽出することを困難なものとさせる。何故ならば、それはマスクされねばならず(即ち、境界領域におけるどのピクセルがオブジェクトに属するか否かを決定せねばならない)且つカラーの汚染除去をせねばならない(即ち、オブジェクトとバックグラウンドの両方からのカラーを有するピクセルは、それらがオブジェクトのカラーのみを包含するように「クリーンアップ」即ち浄化することが必要である)。
【0004】
これらの困難性に対処する幾つかの従来のシステム及び方法が開発されているが、それらの全ては以下に説明するように種々の問題を有している。
【0005】
静止画像におけるバックグラウンドからオブジェクトを抽出するための1つの従来の方法は、例えばアドビ(登録商標)フォトショップ(登録商標)5.5及び6.0等のソフトウエア製品を使用することである。フォトショップは静止画像におけるオブジェクトのぼやけた境界をハイライトすることを可能とする画像抽出特徴を提供している。フォトショップは画像抽出を実施し、オブジェクトからバックグラウンド汚染を除去する修正したカラー及び不透明度マスクの両方を発生する。この方法は「画像マスキングに対する適用を有する複合シーンにおける境界を決定する方法(METHOD FOR DETERMINING ABORDER IN A COMPLEX SCENE WITH APPLICATIONS TO IMAGE MASKING)」、出願番号09/566,632、2000年5月8日出願において記載されている。この画像抽出特徴は、一連のデジタル画像からなるビデオクリップに対しても適用することが可能である。然しながら、この画像抽出特徴はビデオクリップにおける各フレームにおけるオブジェクトをハイライトさせ且つ抽出する手作業処理を必要とする。
【0006】
デジタルビデオにおいて画像抽出を実施する従来のシステムは、一定の、又はほぼ一定のバックグラウンドカラー(通常青)を有するバックグラウンドを使用する。この分野において開発されている技術にも拘わらず、エッジがかなりの詳細を包含しているか又はバックグラウンドとフォアグラウンドの両方からの寄与分を有しているオブジェクトを抽出する場合に未だに問題が残存している。ブルースピル(blue spill)又はブルーフレアー(blue flare)(フォアグラウンドオブジェクト上のブルー即ち青色のスクリーンからのブルー即ち青色の光の反映)、ブルースクリーン上のバッキングシャドウ(フォアグラウンドオブジェクトの一部として保存することを所望するバッキング上のフォアグラウンドオブジェクトのシャドウ)、及びバッキング不純物(推定上純粋にブルーのバッキングの純粋にブルーからの逸れ)等が問題の例である。これらの問題のうちの幾つかを解消するための解析的アプローチがA. Ray Smith及びJ.F. Blinn著「ブルースクリーンマッティング(Blue Screen Matting)」(コンピュータ・グラフィックス・プロシーディングズ、アニュアル・コンフェレンス・シリーズ、1996、259−268)(以後、Smithと呼称する)によって提供されている。Smithは「三角測量解決法」を提案しており、その場合に、ブルー(青)のバックグラウンドに対してのオブジェクトのショットに加えて、2番目のカラーを有するバックグラウンドに対して該オブジェクトの別のショットが取られる。然しながら、この方法は移動フォアグラウンドオブジェクトに対して使用することは不可能である。何故ならば、この方法はピクセル毎の比較を実施し、従ってオブジェクトは2つのショットの間において正確に同一の位置にあることが必要だからである。従って、この提案されている方法はブルーのスクリーンに関連する問題を減少させることが可能であるかもしれないが、より現実的なバックグラウンドを有するシーンにおいて移動オブジェクトが存在する場合に使用することは不可能である。
【0007】
【発明が解決しようとする課題】
従って、非一様なバックグラウンドから正確なオブジェクトの抽出を可能とさせ、且つビデオシーケンスにおける全てのデジタル画像において抽出されるべきオブジェクトを手作業によりマーク付けすること無しにデジタルビデオクリップに対しても適用することが可能なアドビ(登録商標)フォトショップ(登録商標)における画像抽出特徴に類似した方法を有することが所望されている。
【0008】
【課題を解決するための手段】
一般的に、第一の側面においては、本発明はデジタル画像のバックグラウンド(背景)部分からデジタル画像のフォアグラウンド(前景)部分をマスキングするための技術を実現し且つ使用するコンピュータプログラムプロダクトを包含する方法及び装置を提供している。該デジタル画像はデジタル画像の時間系列を有するビデオの一部であり、且つ各画像は複数個のピクセルによって画定されている。この側面においては、第一境界領域を画定する第一入力が受取られる。該第一境界領域は、第一デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含している。第二境界領域を画定する第二入力が受取られる。該第二境界領域は、第二デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含している。該第一及び第二デジタル画像に対して時間的に中間にある画像に対して中間境界領域が補間される。該第一、第二、中間境界領域は、該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために使用される。
【0009】
有益的な実現例は、以下の特徴のうちの1つ又はそれ以上を包含することが可能である。ユーザ入力は境界領域を画定することが可能であり、且つ中間境界領域を補間することはユーザ入力なしで自動的に行うことが可能である。該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用する場合に、境界領域におけるピクセルに対して、そのピクセルが該フォアグラウンド部分と関連するデータを有しているか否かの決定を行うことが可能であり、且つその決定の結果は、該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスクするために使用することが可能である。該第一、第二及び中間境界領域におけるピクセルに対して本質的なカラー値を推定することが可能であり、且つその推定した本質的なカラー値は、該バックグラウンド部分から該フォアグラウンド部分を抽出するために使用ことが可能である。該境界領域は、フォアグラウンド部分内側に位置している内側経路を発生し、且つ該内側経路を取囲み且つ該フォアグラウンド部分外側に位置している外側経路を発生することにより表わすことが可能であり、その場合に、該内側経路と外側経路の間のピクセルは境界領域に属している。該内側経路及び該外側経路はベクトルに基づくものとすることが可能である。該境界領域は、該境界領域のものを取囲む幅を有する単一経路を発生することにより表わすことが可能である。該単一経路はベクトルに基づくものとすることが可能であり且つその長さにわたって可変厚さを有している。
【0010】
該バックグラウンド部分から該フォアグラウンド部分をマスキングすることは、該フォアグラウンド部分をマスキングし且つ該境界領域の該部分に対してガウシアンぼかし(Gaussian blur)を適用することを包含することが可能である。該マスクしたフォアグラウンド部分及び該境界領域の該部分は、更に、表示させることが可能である。該フォアグラウンド部分及び該境界領域の一部をマスキングすることは、代替的に、該フォアグラウンド部分と共に表示される該境界領域の該部分におけるピクセルの不透明度を決定し、且つスレッシュホールド値を超える不透明度を有するピクセルに対する不透明度を変化させることを包含することが可能である。又、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示させることが可能である。
【0011】
該第一デジタル画像における第二フォアグラウンド部分に対する境界領域を画定する入力を受取ることも可能である。該境界領域は第二フォアグラウンド部分の少なくとも一部と該バックグラウンド部分の少なくとも一部とを包含している。該第二デジタル画像における該第二フォアグラウンド部分に対する境界領域を画定する入力も受取ることが可能である。該境界領域は該第二フォアグラウンド部分の少なくとも一部と該バックグラウンド部分の少なくとも一部とを包含している。該第一及び第二デジタル画像に対して中間にある画像に対する該第二フォアグラウンド部分に対する中間境界領域を補間することが可能である。
【0012】
第一内部境界領域を画定する入力を受取ることが可能である。該第一内部境界領域は第一デジタル画像における該第一境界領域によって取囲むことが可能である。第二内部境界領域を画定する入力を受取ることが可能であり、その場合に、該第二内部境界領域は第二デジタル画像における該第二境界領域によって取囲まれている。該第一及び第二デジタル画像に対して時間的に中間にある画像に対する中間内部境界領域を補間することが可能である。該第一、第二、中間境界領域、及び該第一内部、第二内部、中間内部境界領域は、該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために使用することが可能である。該第一内部境界領域、該第二内部境界領域、該中間内部境界領域は該フォアグラウンド部分の少なくとも一部を包含することが可能である。該第一内部境界領域、該第二内部境界領域、該中間内部境界領域は該バックグラウンド部分の少なくとも一部を包含することが可能である。該第一内部境界領域、該第二内部境界領域、該中間内部境界領域は、該フォアグラウンド部分の少なくとも一部と該バックグラウンド部分の少なくとも一部とを包含することが可能である。該フォアグラウンド部分はオブジェクトとすることが可能である。
【0013】
一般的に、別の側面においては、本発明は、デジタル画像のバックグラウンド部分からデジタル画像のフォアグラウンド部分をマスキングするための技術を実現し且つ使用するコンピュータプログラムプロダクトを包含する方法及び装置を提供している。該デジタル画像は、デジタル画像の時間系列を有するビデオの一部であり、各画像は複数個のピクセルによって画定されている。この側面においては、初期的境界領域を画定する入力が受取られる。該初期的境界領域は、初期的デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含している。該初期的境界領域に基づいて時間系列における別のデジタル画像に対して境界領域が自動的に発生され、且つ該初期的且つ自動的に発生された境界領域は、該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために使用される。
【0014】
本発明のこの第二の側面の有益的な実現例は、以下の特徴のうちの1つ又はそれ以上のみならず、本発明の第一の側面に対して上述した特徴の1つ又はそれ以上を包含することが可能である。初期的境界領域を画定する入力を第二フォアグラウンド部分に対して受取ることが可能であり、該初期的境界領域は第二フォアグラウンド部分の少なくとも一部と該第一フォアグラウンド部分を有するデジタル画像における該バックグラウンド部分の少なくとも一部とを包含している。該第二フォアグラウンド部分に対する該初期的境界領域に基づいて時間的系列における別の画像における該第二フォアグラウンド部分に対して境界領域を自動的に発生することが可能であり、且つ該初期的且つ自動的に発生した境界領域は、デジタルビデオにおける該バックグラウンド部分から該第二フォアグラウンド部分をマスキングするために使用することが可能である。
【0015】
初期的内部境界領域を画定する入力を受取ることが可能である。該初期的内部境界領域は、第一デジタル画像における該初期的境界領域によって取囲むことが可能である。該時間系列における別の画像に対する初期的境界領域を、該初期的内部境界領域に基づいて自動的に発生することが可能であり、且つ該初期内部及び該自動的に発生した内部境界領域をデジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために使用することが可能である。
【0016】
別のデジタル画像に対する境界領域を自動的に発生することは、該初期的境界領域におけるエッジ経路であって該初期的デジタル画像における該フォアグラウンド部分のエッジを表わすエッジ経路を識別し、自動的に発生した境界領域におけるエッジ経路であって該別のデジタル画像における該フォアグラウンド部分のエッジを表わすエッジ経路を識別し、該初期的デジタル画像と該別のデジタル画像との間のエッジ経路変換を決定し、且つ該別のデジタル画像において境界領域を発生するために該初期的デジタル画像における該内側経路及び該外側経路に対して該エッジ経路変換を適用することを包含することが可能である。該エッジ経路は、前に識別したエッジ経路に関して動作するスネークアルゴリズムを使用して識別することが可能である。該初期的境界領域におけるエッジ経路を識別することは、スレッシュホールド値を超える画像勾配値を有する該境界領域における点を見つけ出すことを包含することが可能である。画像勾配値は該初期的境界領域における各カラーチャンネルに対して計算することが可能である。
【0017】
該初期的境界領域におけるエッジ経路を識別することは、該内側経路及び該外側経路をコピーし、該内側経路及び該外側経路のコピーを互いに向かって且つスネークアルゴリズムを使用して該フォアグラウンド部分のエッジに向かって移動させ、且つ該内側経路のコピー及び該外側経路のコピーが1つの経路に収束する経路として該エッジ経路を識別することを包含することが可能である。該エッジ経路変換を決定することは、1組の局所的エッジ経路変換を決定することを包含することが可能であり、該1組の局所的エッジ経路変換は一体的に該エッジ経路変換を形成している。該局所的エッジ経路変換は、該1組の局所的エッジ経路変換における各局所的エッジ経路変換に対する並進、回転、スケーリングを決定することにより該エッジ経路における各点に対して決定することが可能である。
【0018】
該内側経路及び外側経路に対して該エッジ経路変換を適用することは、該内側経路における各点に対して且つ該外側経路における各点に対して1組の局所的変換を適用することを包含することが可能であり、該1組の局所的変換は、該内側経路及び該経路の各局所的変換として並進、回転、スケーリングを適用することにより該エッジ経路変換を形成している。
【0019】
一般的に、更に別の側面においては、本発明は、デジタルビデオにおけるバックグラウンドからオブジェクトをマスキングするための技術を実現し且つ使用するコンピュータプログラムプロダクトを包含する方法及び装置を提供している。該デジタルビデオはデジタル画像の時間系列を有しており、且つ各画像は複数個のピクセルによって画定されている。この側面において、第一境界領域を画定する第一ユーザ入力が受取られる。該第一境界領域は第一デジタル画像における該バックグラウンドの少なくとも一部と該オブジェクトの少なくとも一部とを包含している。第二境界領域を画定する第二ユーザ入力が受取られ、該第二境界領域は第二デジタル画像における該バックグラウンド部分の少なくとも一部と該オブジェクトの少なくとも一部とを包含している。該第一及び第二デジタル画像に対して時間的に中間にある画像に対して中間境界領域が補間される。該第一、第二、中間境界領域はデジタルビデオにおける該バックグラウンドから該オブジェクトをマスキングするために使用される。該第一、第二、中間境界領域は、デジタルビデオにおける該バックグラウンドから該オブジェクトを抽出するために使用され、該マスクされ且つ抽出されたオブジェクトは別のデジタルビデオにおける新たなバックグラウンドに対して配置される。
【0020】
本発明は、以下の利点のうちの1つ又はそれ以上を現実化させるために実現することが可能である。ぼけた又は毛のようなオブジェクトをデジタルビデオにおける複雑なバックグラウンドから容易に抽出することが可能である。その抽出したオブジェクトを新たなバックグラウンドシーン内に挿入することが可能である。オブジェクトの抽出を成功裡に達成するためにブルーのスクリーンバックグラウンドは必要ではない。オブジェクトを自動的に又は半自動的に抽出することが可能である。
【0021】
本発明の1つ又はそれ以上の実施例の詳細について添付の図面及び以下の説明において説明する。本発明のその他の特徴、目的及び利点は以下の説明及び図面から及び特許請求の範囲から明らかとなる。
【0022】
【発明の実施の形態】
図1はデジタルビデオにおけるバックグラウンド部分からフォアグラウンド部分を抽出するためのプロセス100を示している。このプロセスは、バックグラウンドから抽出するためにユーザが所望する任意のフォアグラウンド部分に対して適用することが可能である。本発明の好適実現例においては、フォアグラウンド部分はオブジェクトを表わしている。例示として、フォアグラウンド部分は以下の説明においてオブジェクトとして言及するが、このことは特許請求の範囲を制限するものとして解釈されるべきではない。バックグラウンドから抽出されるべきオブジェクト、即ちフォアグラウンド部分は、任意のタイプのものとすることが可能であり、静止又は移動するものとすることが可能であり、且つ変化する形状及び様相を有することが可能である。このプロセスは、任意のフォアグラウンド部分即ちオブジェクトに関して同じく良好に動作する。デジタルビデオはあるレートで表示されるべきデジタル画像の時間系列を包含している。デジタルビデオは幾つかの異なるフォーマットを有することが可能であり、最も一般的なものはAVI、MPEG、MOVである。本プロセスは、各々が局所的及び/又は遠隔メモリからアクセスされる命令を実行する1個又はそれ以上のプロセッサによって実行することが可能である。これらのプロセッサは、ユーザが入力を制御し且つ処理結果を評価することを可能とするために例えばディスプレイ、キーボード、マウス等の種々の入力/出力装置へ結合させることが可能である。これらのプロセッサは、又、通信リンクを介してデータを受取り且つ通信する入力/出力インターフェースへ結合させることも可能である。このようなインターフェースは、通信リンクを介してデータを受取り且つ送信する。このような通信リンクは、例えば、シリアルリンク、ローカルエリアネットワーク、ワイヤレスリンク、パラレルリンク等を包含している。
【0023】
プロセス100はステップ105で開始し、ユーザがオブジェクトを抽出することを所望するデジタルビデオクリップを受取る。このデジタルビデオクリップは種々の入力/出力装置又は通信リンクのいずれかを介して受取ることが可能である。ステップ110において、本プロセスは初期的キーフレームのユーザ選択を受取る。この初期的キーフレームは、ユーザがビデオクリップからオブジェクトを抽出することを開始することを所望する時間におけるインスタンスに対応するデジタル画像である。キーフレーム300の1つの例を図3Aに示してあり、それはバックグラウンド310上に設定されているオブジェクト305を包含している。ステップ115において、本プロセスはバックグラウンドから抽出することが所望されるオブジェクトを表わすユーザからの入力を受取り、且つステップ120において、本プロセスは該オブジェクトの境界内側にユーザによって描かれたパス(path)即ち経路を受取る。オブジェクトの境界内側に経路を描画する場合に、ユーザは、通常、そのオブジェクトの輪郭に従うことが可能である。
【0024】
ボーダー即ち境界とは、フォアグラウンドオブジェクトがバックグラウンド領域に遭遇する画像の領域のことを意味している。該境界は多数のピクセルからなる幅とすることが可能であり又は単に単一のピクセルの幅程度に小さいものとすることが可能であり、且つ混合されたデータ、即ちオブジェクトと関連するデータとバックグラウンドと関連するデータとを有するピクセルを包含している。例えば、青色バックグラウンド上の赤色オブジェクトは青、赤、異なる階調の紫であるピクセルを有する境界を発生する場合がある。多くの場合において、ユーザはオブジェクトの境界を追跡することが困難と思う場合がある。この1つの例は、オブジェクトが髪又は毛を有するぼやけたエッジ(端部)を有している場合である。従って、本プロセスは、以下に説明するように、ユーザが境界を取囲むより幅広の境界領域を形成させる。オブジェクトの境界内側の経路を受取った後に、本プロセスは、ステップ125において、境界外側にユーザによって描画された経路を受取る。この外側経路も概略的に境界に従うことが必要であるに過ぎない。この内側経路と外側経路との間の区域が境界領域を構成し、それは境界を取囲んでいる。境界領域をどのようにして使用するかについてのより詳細な説明は後に説明する。内側経路及び外側経路はベジェ曲線の形態とすることが可能である。然しながら、その他のタイプのベクトルを基礎とした経路を使用することも可能である。
【0025】
次に、本プロセスは、ステップ130において、ユーザがバックグラウンドからその他のオブジェクトをマスキングすることに興味があるか否かを判別するために待機する。図3Aは1個のオブジェクト305を包含するに過ぎないが、図6は抽出すべき2つのオブジェクト605及び610が存在する例を示している。ユーザが別のオブジェクトを選択することを所望する場合には、本プロセスは、ステップ135において、ユーザが新たなオブジェクトを選択することを可能とさせる。次いで、本プロセスは、ステップ120及び125において、この新たなオブジェクトの周りの内側経路及び外側経路を表わすユーザ入力を受取る。全てのオブジェクトが選択された後に、本プロセスはステップ140へ移行し、そこで本プロセスは別のキーフレームのユーザ選択を受取る。
【0026】
図3Bに示した新たなキーフレーム350において、本プロセスは初期的キーフレームの場合と同一のステップを実施する。本プロセスは、境界領域を画定するステップ145における第一オブジェクト、ステップ150における内側経路、ステップ155における外側経路を識別するユーザからの入力を受取る。該オブジェクトは初期的キーフレームと新たなキーフレームとの間において位置を変化させている場合があり、且つ内側経路及び外側経路は、その結果、異なる形状及び位置を有している場合があり、変化した境界領域となっている場合がある。これらの経路を受取った後に、本プロセスは、ステップ160においてバックグラウンドから抽出すべき画像内に更なるオブジェクトが存在するか否かを表わすユーザから入力を待機し、且つそうである場合には、ステップ165において新たなオブジェクトが処理のために選択され、且つその新たなオブジェクトの周りの経路が受取られる。
【0027】
新たなキーフレームにおける興味のある各オブジェクトに対して境界領域が形成されると、本プロセスは、ステップ170においてその他のキーフレームを識別するユーザ入力を待機する。そうである場合には、本プロセスはステップ140へ復帰し且つそこから継続し、そこで別のキーフレームを受取る。選択されたキーフレームの数はオブジェクトが実施する運動のタイプ、及び以下に説明するように、画像間の補間がどの程度正確なものであるかをユーザが所望するかに依存して異なる場合がある。
【0028】
ユーザが興味のある全てのキーフレームにおける境界領域にマーク付けを行った後に、本プロセスは、ステップ175において、ユーザから受取ったキーフレームの間の時間に位置している画像に対する中間経路の補間を行うことにより継続する。該中間経路の補間は、多数の従来の方法で行うことが可能である。補間処理の例は、「アップルマッキントッシュコンピュータで使用するためのアドビアフターエフェクトバージョン3.0ユーザガイド(Adobe After Effects Version 3.0 User Guide for use with Apple Macintosh Computers)」、1995において及び「フローティングキーフレーム(FLOATING KEYFRAMES)」という名称の本願出願人が所有する米国特許第5,929,867号において見出すことが可能である。一般的に、動画システムにおいては、2つの機能、即ちQ及びSを使用して時間に関してのレイヤープロパティにおける変化を制御する。Qはn次元プロパティスペースを介しての経路を画定し且つSは該経路に沿っての運動を画定する。Q及びSの形状はキーフレームによって制御される。2つのキーフレームの間でレイヤープロパティをアニメーションさせるために、システムは、2つのプロパティ値の間に経路Qを構成し且つ夫々のキーフレームと関連する2つの時間値の間に運動制御関数Sを構築する。次いで、システムは経路Q及び運動制御関数Sを使用して2つのキーフレームの間のフレームの全てに対してレイヤープロパティの値を補間する。
【0029】
例えば、スクリーンにわたってレイヤーの運動を達成するために、ユーザは第一時間においてキーフレームを選択し、そのことはレイヤーの位置プロパティを初期的位置に設定する。次いで、ユーザは第二時間において第二キーフレームを選択し、そのことはレイヤーの位置プロパティをその次の位置に設定する。この変化をアニメーションすることの命令が与えられると、システムは中間時間の各々においてそのレイヤーの位置を計算し且つこれらの位置の各々に対して該レイヤーを移動させ、それにより開始位置から終了位置へ該レイヤーの運動を発生する。ユーザは各プロパティに対して任意の数のキーフレームを選択することが可能であり、且つ各対の隣接するキーフレームの間において同一の態様で補間が実施される。
【0030】
レイヤーの位置プロパティのアニメーション背後の原理は、例えばカラー、寸法、マスク形状、3Dオブジェクト形状、3Dオブジェクト位置、及びその他の任意のn次元プロパティ等のその他のn次元レイヤープロパティのアニメーションに対して同様に適用可能である。本明細書において記載した本発明において補間されるレイヤープロパティは、夫々、内側経路及び外側経路の形状であり、且つデジタルビデオの各フレームにおけるそれらの夫々の位置である。
【0031】
キーフレームの間で各フレームに対して内側経路及び外側経路が自動的に補間された後に、本プロセスはステップ180においてバックグラウンドからユーザによって選択された各オブジェクトを抽出する。この抽出処理を図5を参照してより詳細に説明するが、その処理はステップ505において開始する。第一に、この抽出プロセスはステップ510において初期的キーフレームを選択する。この抽出プロセスはステップ515において第一オブジェクトを選択する。ベクトルを基礎とした内側及び外側経路に基づいて、ステップ520においてラスターを基礎にしたフォアグラウンド、バックグラウンド及びハイライトマスクが発生される。これら3つのマスクは以下の態様で発生される。
【0032】
第一に、この抽出プロセスは内側経路を使用してフォアグラウンドマスクを発生する。この内側経路は1個又は1個未満のピクセルの分離で密集した点においてサンプルされる。各サンプル点に対して、マスクの値は1に設定される。内側経路をサンプリングした後に、内側経路の内側に任意の点が選択される。該経路内側の点は、最初に、該経路によって交差されるピクセルを除いて全ての箇所において0の値を有するピクセルマスクを形成することによって見つけることが可能であり、これらには1の値が割当てられる。次に、1のマスク値を有するピクセルが選択される。次いで、0のマスク値を有するそのピクセルの最も近い隣りのものが考慮され、且つそのピクセルが以下のプロパティを有する場合には、それらのうちの任意の1つが内側点として選択され、その点から画像のエッジへ描かれるラインは、それが挿入するピクセルのマスク値において奇数の0から1又は1から0の遷移を行わせる。内側点を選択した後に、この抽出プロセスは、最初に、該経路に沿って存在する全てのピクセルのマスク値を0.5の値に設定し且つその他の全てのピクセルを0の値に設定することによってフォアグラウンドマスクを形成する。次いで、選択した内側点から開始してフラッドフィル(flood fill)動作を実施して、全ての0の値のピクセルを値1で充填し、且つ0.5の値を有するピクセルに遭遇する場合にフラッドフィル拡張を停止する。最後に、全ての0.5の値を有するピクセルは1の値を有するように変化される。フラッドフィル技術は当該技術において公知であり且つJames D. Foley及びAndries van Dam「対話的コンピュータグラフィックスの基礎(Fundamentals of Interactive Computer Graphics)」(アジソン−ウェズリィ出版社、1982、446−449頁)に記載されている。第二に、この抽出プロセスは同様の態様であるが、内側経路の代わりに外側経路を使用し且つフラッドフィルに対する開始点として外側経路外側の任意の点を選択することによりバックグラウンドマスクを形成する。最後に、この抽出プロセスはフォアグラウンドマスク及びバックグラウンドマスクから境界領域に対応するハイライトマスクを発生する。フォアグラウンドマスク及びバックグラウンドマスクの対応する値がその点において0である場合に、ハイライトマスクにおける点に対して1の値が割当てられる。フォアグラウンドマスク及びバックグラウンドマスクの値のいずれか又は両方が問題とする点において1に等しい場合には、ハイライトマスクの値は0に設定される。従って、ハイライトマスクは境界領域を画定する。
【0033】
ステップ520においてマスクを発生する別の方法は、画像内のオブジェクトの全てを1個の単一オブジェクトとして取扱う。このアプローチの場合には、全てのフォアグラウンドに指定した経路が結合されてフォアグラウンドマスクを発生し且つ全てのバックグラウンドに指定した経路が結合されてバックグラウンドマスクを形成する。その結合は上述した如く各経路と関連するマスクを計算し、且つ個々のマスクを1つの結合したマスクへ結合させるために各ピクセルに対して論理的XOR演算を適用することを包含している。結合したバックグラウンドマスクがBとして指定され且つ個々のバックグラウンドマスクをbとして指定され、尚a=1,2,...N、即ちバックグラウンド経路の数である場合には、この演算は次のように表わすことが可能である(以下の表記はマスク内の各ピクセルに関して実施されるべき演算を表わしていることに注意。例えば、式B=0は「マスクB内の各ピクセルの値を0へ設定」を暗示している)。
【0034】
B=0
各b=1,2,...Nに対して繰返し
=1−b(bの補元)
B=cXORB
該補元を取ることはバックグラウンドマスクを減少させ、
B=1−B、
尚、cXORdは、cとdの両方が0に等しいか又は両方が1に等しい場合には0に等しく、且つcXORdは、そうでない場合には、任意のマスクピクセル値c及びdに対して1に等しく、そのことは0又は1の可能な値を取ることが可能である。
【0035】
同様であるが、多少異なる演算が個々のマスクf、a=1,2,...N、即ちフォアグラウンド経路の数、から結合したフォアグラウンドマスクFを形成するために実施される。
【0036】
F=0(マスク内の各ピクセルを0へ設定)
各a=1,2,...Nに対して繰返し
F=fXORF
Fにおける対応するピクセルが1に設定される場合にBを0に設定
Fピクセル値もBピクセル値も1に設定されていない全てのピクセルを1に設定することにより上述した如くにしてハイライトマスクが発生される。
【0037】
上述した手順を使用して、全体的な画像が複数の部分からなる場合のある単一のエンティティとして取扱われ、且つ以下に説明するように、本抽出プロセスは単一ステップで完全な抽出を発生する。
【0038】
ハイライトマスクが決定されると、本抽出プロセスはステップ525で継続して処理され、その場合に、オブジェクトの抽出が実施される。オブジェクト抽出プロセスの1つの例は本願出願人が所要する米国特許出願「画像マスキングに対する適用を有する複合シーンにおける境界を決定する方法(METHOD FOR DETERMINING A BORDER IN A COMPLEX SCENE WITH APPLICATIONS TO IMAGE MASKING)」において記載されている。このオブジェクト抽出プロセスの結果は各ピクセルがフォアグラウンドオブジェクトに属する程度を指定する不透明度チャンネル(アルファチャンネル)及び新たな「本質的」フォアグラウンドカラー値からなるオブジェクトのカラーの汚染除去した画像である。8ビットマスクの場合には、255の値がフォアグラウンドにおける全体的なメンバーシップ(帰属関係)を表わし、0の値はバックグラウンドにおける全体的なメンバーシップを表わし、且つ中間値はフォアグラウンド及びバックグラウンドにおける中間のメンバーシップを表わす。
【0039】
次いで、本抽出プロセスは、ステップ530において初期的キーフレームから抽出すべき更なるオブジェクトをユーザが画定したか否かを判別するためのチェックを行う。そうである場合には、本プロセスはステップ535において次のオブジェクトを選択し、且つこのオブジェクトに対してステップ520−535を実施する。ステップ520−535は、処理すべき更なるオブジェクトが残存しなくなるまで繰返し行われ、その後に、本プロセスは、ステップ540において処理すべき更なるフレームが存在するか否かの検査を行う。処理すべき更なるフレームが残存する場合には、マスキングプロセスがステップ545において新たなフレームを選択し、且つその新たなフレームに対してステップ515−540を繰返し行う。ビデオクリップの最終的フレーム又はビデオクリップにおける別のストップ点に到達すると、本抽出プロセスはステップ550において抽出したオブジェクトを新たなバックグラウンド内にフレーム毎に配置させる。このことは、図3A及び図3Bに夫々示したフレームに対して図4A及び図4Bにおいて理解することが可能である。最終的に、ステップ555において画像を新たなバックグラウンドに対して移動オブジェクト305を示すビデオクリップに組立てる。これにより抽出プロセス500が完了する。
【0040】
本抽出プロセスは、又、オブジェクトの周りの1つの経路のみを使用して実施することが可能である。このプロセスは上述したものと非常に類似しており、図2を参照して説明する。このプロセス200はステップ205において開始し、ユーザがそれからオブジェクトを抽出することを所望するデジタルビデオクリップを受取る。ステップ210において本プロセスは初期的キーフレームのユーザ選択を受取り、それに続いてステップ215において抽出することを所望するオブジェクトの選択を行う。然しながら、この実現例においては、オブジェクト境界周りの内側経路及び外側経路を受取る代わりに、本プロセスは、ステップ220において、ユーザによって描画された1つの経路を受取るに過ぎない。この経路はある厚さを有しており、それは境界をカバーするのに充分なものである。この経路は、例えば、ブラシツールを使用して描画することが可能であり、その場合にその厚さはユーザが適用する圧力に依存して変化する。これらのタイプのブラシツールの特性は当該技術において公知であり、従ってその説明は割愛する。境界周りにユーザが描画する経路の厚さを変化させるオプションを有することにより、異なる「ぼやけ度」を有する部分を考慮することが可能である。図3A及び3Bにおける赤子の例においては、例えば、境界を画定することが困難である頭部領域周りにより厚い経路を描き且つ境界をより容易に画定される腕に沿ってより薄い経路を描くことがより望ましい場合がある。前の実現例においては、ユーザは、内側及び外側の経路を描画することにより境界領域を表示していたが、この実現例においては、その代わりに、境界領域は経路自身によって表わされ、従って、多くの場合においてより魅力のあるオプションである場合がある。又、この場合には、その経路はベクトルを基礎としており且つベジェ曲線によって構成されているが、その他のタイプのベクトルを基礎とした経路を使用することも可能である。
【0041】
次に、本プロセスはステップ225においてユーザがバックグラウンドからいずれかのオブジェクトを抽出することを所望するか否かのユーザの入力を待機する。更なるオブジェクトが抽出されるべき場合には、本プロセスは、ステップ230において、ユーザによって選択された次のオブジェクトの表示を受取り、且つステップ220において第二オブジェクトの周りの単一経路を受取ることにより進行する。全てのオブジェクトが選択されると、本プロセスはステップ235において継続し、その場合に本プロセスはユーザが別のキーフレームを選択することを可能とする。この新たなキーフレームに対して、本プロセスは初期的キーフレームにおけるのと同一のステップを実施する。本プロセスはステップ240において第一オブジェクトの選択を受取り、且つステップ245において該オブジェクトの境界をカバーする経路を受取る。該経路を描画した後に、本プロセスはステップ250においてバックグラウンドから抽出されるべき画像内の更なるオブジェクトが存在するか否かを表わすユーザ入力を待機する。そうである場合には、ステップ255において新たなオブジェクトが識別され且つその周りに経路が描画される。
【0042】
新たなキーフレームにおける興味のある各オブジェクトの周りに境界領域が形成されると、本プロセスはステップ260においてその他のキーフレームにおけるオブジェクトに対し境界領域を形成するためにユーザが所望することを表わすユーザからの入力を受取る。そうである場合には、本プロセスはステップ235へ復帰し、そこで新たなキーフレームが選択される。キーフレームの数は、オブジェクトが実施する運動のタイプ、及び以下に説明するようにどの程度正確に画像間の補間がなされるべきかに依存して変化する場合がある。
【0043】
ユーザが興味のあるキーフレームの全てにおける境界領域にマーク付けした後に、本プロセスは、ステップ265においてユーザによって選択されたキーフレームの値の時間に位置している画像に対する中間経路を補間することにより処理を継続する。各選択したオブジェクト周りの経路が各中間フレームに対して自動的に補間された後に、ユーザによって選択された各オブジェクトはステップ270においてバックグラウンドからマスクされる。このオブジェクトは、バックグラウンド、フォアグラウンド、ハイライトマスクが作成されたステップ520が異なる態様で実施される点を除いて、上述した如くに抽出され、そのことについて以下に説明する。これら3つのマスクは以下の態様で発生される。
【0044】
第一に、このマスキングプロセスは単一経路の内側エッジを使用してフォアグラウンドマスクを発生する。該経路の内側エッジは1個又は1個未満のピクセルの分離での密集した点においてサンプルされる。各サンプル点に対して、マスクの値は1に設定される。該経路の内側エッジをサンプリングした後に、このマスキングプロセスは該経路の内側上に任意の点を選択する。この任意の点は内側経路及び外側経路の両方に対して上述した方法と同様の態様で選択することが可能である。この内側点を選択した後に、本マスキングプロセスは、該選択した点から開始して該マスクを1の値でフラッドフィル処理することによりフォアグラウンドマスクを形成する。第二に、このマスキングプロセスは同様の態様であるが、該経路の内側エッジの代わりに該経路の外側エッジを使用し、且つフラッドフィル処理に対する開始点として該経路の外側エッジの外側の任意の点を選択することによってバックグラウンドマスクを発生する。最後に、このマスキングプロセスはハイライトマスクに対して1の値を割当て、且つ該単一経路上の各点から指定した半径R内に存在する各ピクセルに対してフォアグラウンドマスク及びバックグラウンドマスクの両方に対し0の値を割り当てることによりハイライトマスクを発生する。ハイライトマスクが決定されると、本マスキングプロセスは上述した如くステップ525−560を実施し、且つこのマスキングプロセスの完了は図2におけるステップ275によって示した全体的な処理を完了する。
【0045】
幾つかの場合においては、バックグラウンドオブジェクトがフォアグラウンドオブジェクトの内側に存在している場合がある。例えば、図6において理解されるように、右側の女性は、フォアグラウンドの一部ではないがバックグラウンド612の一部である区域614を彼女の腕の下側に有している。ユーザがこのバックグラウンド部分614をフォアグラウンドから分離することを所望する場合には、ユーザはバックグラウンド部分614を取囲む経路625を描画することによりこの区域にマーク付けすることが可能である。バックグラウンド部分614を取囲む経路は完全にオブジェクトの内側に存在している。このマスキングプロセスがフォアグラウンド、バックグラウンド、ハイライトマスクを発生すると、バックグラウンド部分614を取囲む経路内側の全てはハイライトマスクの一部であり、オブジェクト抽出及びマスキング期間中のそのように取扱われる。勿論、バックグラウンド部分614周りの境界領域又はハイライト領域は、代替的に、内側経路と外側経路とを有する境界領域を形成することにより、又は上述した如く境界をカバーする幅を有する単一の経路を描画することによって表示することが可能である。ここでは、バックグラウンド部分がオブジェクトの内側に存在している場合には、その境界領域は内部境界領域として呼称する。内側及び外側経路を使用して内部境界領域を形成することは、フォアグラウンドオブジェクトの大きな部分がバックグラウンドに属する場合に特に有用であり、且つハイライト領域における境界決定に対しより速い処理時間となる。
【0046】
本発明の別の実現例を図7を参照して以下に説明する。この実現例においては、1つの初期的キーフレーム内のオブジェクトを選択することにより1つ又はそれ以上のオブジェクトを自動的に追跡することが可能である。図7に示したステップ705−735は図1に関連して説明したプロセスと同一である。本プロセスがマスクすべきオブジェクト全てのユーザ表示を受取った後に、本プロセスはステップ740で継続して行われ且つ現在のフレームにおけるオブジェクトをマスクする。次いで、本プロセスは、ステップ745において現在のフレームがストップフレームであるか否かをチェックする。ストップフレームは、ビデオクリップにおける最後のフレームとすることが可能であり、又はユーザによって選択することが可能である。現在のフレームがストップフレームである場合には、本プロセスはステップ750で終了する。そうでない場合には、本プロセスはステップ755へ継続して処理し、その場合に、選択されたオブジェクトが次のフレームにおいて自動的に追跡される。この追跡プロセスについて以下により詳細に説明する。ステップ760において次のフレームが現在のものとされ、且つ本プロセスはステップ740において現在のフレームにおけるオブジェクトを抽出する処理を行い、且つ最終的に、そのオブジェクトが追跡され且つ全てのフレームから抽出された場合に終了する。図7に示したプロセスにおいて、内側経路と外側経路とが使用される。一方、これらのステップは図2に関連して上述したように、内側経路と外側経路との代わりにオブジェクトの境界をカバーする1つの経路を使用して実施することが可能である。
【0047】
自動追跡ステップ755について説明するが、最初に、1組の変数を導入する必要がある。自動追跡ステップ755について説明する目的のために、内側経路P1(t)及び外側経路P2(t)を使用して、時間tにおいて発生する初期的フレームにおいて単に1個のオブジェクトが選択されたものと仮定する。当業者は、以下の説明から1つを超えるオブジェクトに対し本プロセスをどのように一般化するかを理解する。1つを超えるオブジェクトが選択されると、本方法は各オブジェクトに対して繰返し適用される。各経路は特定した座標を有する1組の頂点から構成されている。例えば、
P1(t)={v11(t),v12(t),v13(t),...v1M1(t)}はM1個の頂点から構成されており、
P2(t)={v21(t),v22(t),v23(t),...v2M2(t)}はM2個の頂点から構成されており、
尚、vij(t)=(xij(t),yij(t))は時間tにおける二次元頂点である。
【0048】
頂点は、アプリケーションによって必要とされる場合により高い次元のものとすることが可能である。内側経路及び外側経路は、それらの夫々の頂点を直線で接続することにより又は例えば三次ベジェ曲線等のより複雑な直線によって接続することにより形成される。充分に密接している点を発生させるために、該直線を最初にサンプルして潜在的により密集した組の点rij(t)を発生する。このサンプリングは標準のサンプリング方法を使用して実施して1組の点として入力経路及び出力経路の以下の表現を発生する。
【0049】
(t)={r11(t),r12(t),r13(t),...r1N1(t)}はN1個の点から構成されており、
(t)={r21(t),r22(t),r23(t),...r2N2(t)}はN2個の頂点から構成されており、
尚、rij(t)=(xij(t),yij(t))は時間tにおけるサンプル点である。
【0050】
選択されたサンプル点の数は所望とする詳細のレベルに依存する。1つの極限において、N1=M1及びN2=M2である。これは、頂点のみが選択される場合である。別の極限は、いずれの隣接するサンプル点の間の距離もピクセル間の間隔より小さい程度に密集してサンプル点が選択される場合である。
【0051】
これらの変数を定義した後に、ステップ755における自動追跡プロセスについて図8を参照して説明する。第一に、プロセス全体の簡単な概略について説明する。この自動追跡プロセスはステップ805において開始する。ステップ810において、この追跡プロセスは時間tにおいて発生する初期的フレームにおいてP(t)とP(t)との間の境界領域における強いエッジを有するエッジ経路E(t)を識別する。この追跡プロセスがステップ810においてエッジ経路E(t)を識別すると、本追跡プロセスはステップ815へ移行し、そこでエッジ経路E(t)は時間t+1において発生する次のフレームにおけるエッジに向かって移動する。該エッジ経路を次のフレームにおけるエッジに向かって移動させた後に、結合した局所的変換Tを決定し、それは、ステップ820において、E(t)をE(t+1)とさせ、即ちE(t+1)=TE(t)である。次いで、変換Tを使用してP(t+1)=TP(t)及びP(t+1)=TP(t)に従って、ステップ825において、P(t)及びP(t)を変換する。経路P(t)及びP(t)に対して変換Tを適用することにより、それらはこれら2つの経路の間の境界領域内に存在する画像エッジにおいて行われる変換と同様の態様で変換が行われる。このことは自動追跡プロセスを完了し、且つ前述した如く、オブジェクトをフレームから抽出することが可能である。ステップ810−825についてより詳細に説明する。
【0052】
ステップ810:エッジ経路の探索
エッジ経路E(t)は、2つの方法のうちのいずれかを使用することによって探索することが可能である。方法Aは、実施がより簡単であり且つより高速であるという利点を有しており、且つそれは境界領域における全てのエッジを捕獲する。然しながら、バックグラウンドからの寄与が境界領域におけるエッジの大きな割合部分である場合においては、方法Bがオブジェクトのより良い追跡を発生する。
【0053】
方法A
方法Aの目標は境界領域、即ちP(t)とP(t)との間で、所定のスレッシュホールド値Gより大きなエッジ値又は画像勾配値を有する点を探索することである。エッジ値及び画像勾配の表現はここでは交換可能に使用されており、検討中のピクセルとその隣りのピクセルとの間のカラー強度値変化のことを意味している。勾配値に対する解析的な表現について以下に説明する。上述した本発明の実現例におけるように、境界領域マスク又はハイライトマスクHが発生され、それは画像フレーム内のP(t)とP(t)との間の全てのピクセルに対して1の値を有しており且つその他の場合には0の値を有している。ハイライトマスクHの発生に続いて、1の値を有する各ピクセルに対して画像勾配G(x,y)が計算される。画像勾配G(x,y)を計算する1つの態様は次式により与えられる。
【0054】
【数1】
Figure 2004516589
【0055】
I(x,y)は該画像における与えられたカラーチャンネルに対する画像強度である。
【0056】
各カラーチャンネルに対して計算した勾配を結合することが可能である。例えば、その画像が赤、緑、青のカラーチャンネルからなるRGBカラー画像である場合には、勾配G(x,y)は以下の如くに計算することが可能である。
【0057】
【数2】
Figure 2004516589
【0058】
尚、G:赤チャンネルの勾配
:青チャンネルの勾配
:緑チャンネルの勾配
ピクセルがGより大きな勾配値を有している場合には、それはE(t)からなる点のリストへ付加される。スレッシュホールドGの典型的な値は8ビット画像の場合に100であり、その場合には、ピクセル強度値は0から255の範囲である。次いで、エッジ経路E(t)はGより大きな勾配を有するP(t)とP(t)との間の全ての点から構成されている。これらの点は互いに隣接していることが保証されるものでないが、以下に説明するように、残りのステップを実施するためには必要なことではない。
【0059】
方法B
この方法は方法Aよりもより複雑であるが、エッジ経路E(t)内の全ての点が互いに隣接していることを保証する。この方法も単一の最良の連続的なエッジを発生し、それは、境界領域における任意の強いエッジからエッジ点を発生する方法Aと対比して、P(t)とP(t)との間に存在している。
【0060】
このことは、標準のスネーク技術の新規なアプリケーションを使用して行われる。スネーク技術は当該技術において公知である。本発明のこの実現例において使用されるこの新規な適用例はアクティブ輪郭技術として公知であり、M.Kass、A. Witkin、D. Terzopoulos「スネーク、アクティブ輪郭、モデル(Snakes: Active Contour, Models)」(インターナショナル・ジャーナル・オブ・コンピュータ・ビジョン、1巻、321−331頁、1998)(以後Kassと呼ぶ)において記載されている。
【0061】
第一に、各経路のコピーが行われ、即ちP′(t)=P(t)及びP′(t)=P(t)である。経路P′(t)内の各点は、初期位置からの変化又は該経路の曲げに抗する1組の力に従って移動され、且つ経路P′(t)に向かって牽引され、それによりオブジェクトのエッジに向かって牽引される。P′(t)内の異なる点を移動させることはSteve R. Gunn及びMark S. Nixon「ロバストスネーク実現例;デュアルアクティブ輪郭(A Robust Snake Implementation; A Dual Active Contour)」(IEEE・トランズアクションズ・オン・パターン・アナリシス・アンド・マシン・インテリジェンス、19巻、No.1、1997年1月)に記載されているものと同様の方法を使用して行われる。P′(t)は同様の態様でP′(t)に向かって、且つそれによりオブジェクトのエッジに向かって移動される。このように、P′(t)及びP′(t)は、究極的に、経路E(t)へ収束し、それはP′(t)とP′(t)との間の境界領域における強いエッジに追従する傾向となる。
【0062】
上述した方法Aにおいて画像勾配を計算したのと同一の態様で画像フレームにおける各ピクセル位置(x,y)における勾配を計算することによりエッジ力フィールドG(x,y)が形成される。このフィールドはエッジの影響がより大きな範囲にわたって拡張することを可能とさせるためにぼかし又は拡散される。ぼかしの典型的な実現例はG(x,y)に対して10個のピクセルの半径で標準のガウシアンぼかし(Gaussian blur)を適用することが関与する。このアプリケーションのユーザはぼかしの半径を制御することが可能である。結果的に得られるぼかした勾配の負数はV(x,y)で示され、且つ経路を強いエッジに向かって駆動するエッジを基礎としたポテンシャルエネルギである。V(x,y)を見つけるための別の方法は、Gより大きなG(x,y)の値を有するピクセルに対して1の値を割当て且つその他の全てに対して0の値を割当てることによりG(x,y)をスレッシュホールド処理することである。次いで、距離変換計算を実施してフィールドV(x,y)を発生し、それはスレッシュホールドより上の点においては0であり且つこれらの点から距離が増加するに従い直線的に増加する。このタイプの距離変換計算はPer−Erik Danielsson「ユークリッド距離マッピング(Euclidean Bistance Mapping)」(コンピュータ・グラフィックス・アンド・イメージ・プロセシング、Vol.14、227−248頁、1980)に記載されている。
【0063】
経路P′(t)に沿ってこれらの点に対して適用される距離変換の別のアプリケーションを使用して、ポテンシャルフィールドV(x,y)を見つけ、それは該経路に沿った点に対して0の値を有しており且つこれらの点から離れるに従って値が増加する。同様のポテンシャルフィールドV(x,y)も経路P′(t)における点に基づいて計算される。
【0064】
時間tにおける3つのポテンシャルフィールドV(x,y)、V(x,y)、V(x,y)を計算した後に、経路P′(t)及びP′(t)上の点を、直線の歪みを最小としながら、これら3つのポテンシャルエネルギの重み付けした和を最小とさせるために移動させる。重み付けした和はVexternal(x,y)=c(x,y)+c(x,y)+c(x,y)であり、尚c、c、cは重み付け係数である。この距離変換方法を使用する場合には,重み付け係数の各々に対する典型的な値は1.0である。経路P′(t)における経路点を移動させる場合に、cは0に設定され、且つP′(t)における経路点を移動させる場合には、cを0に設定する。
【0065】
該経路を移動させる場合に複数の繰返し(典型的に10)を実施する。各繰返しに対して、経路P′(t)における全ての点及び経路P′(t)における全ての点が移動される。v及びvを0の初期値を有する変数(速度)とし、且つ(x,y)を経路座標の値に初期化させるものとすると、例えば、経路1における点3に対して、x=x13(t)、y=y13(t)である。次いで、各点は次のように移動される。
【0066】
【数3】
Figure 2004516589
【0067】
V(x,y)は以下のように外部エネルギと内部エネルギとからなるポテンシャルエネルギである。
【0068】
V(x,y)=Vexternal(x,y)+Vinternal(x,y)
内部エネルギはオリジナルの直線の直線の歪みを最小とさせる。例えば、点3に対する内部エネルギの1例は次式で与えられる。
【0069】
【数4】
Figure 2004516589
【0070】
尚、kは曲線が歪むことが可能な程度を制御し且つ内部の力と外部の力との間のバランスを制御するスプリング剛性定数である。kの典型的な値は0.3である。スネークアルゴリズムを介して全ての繰返しを実施した後の経路P′(t)に対する結果的に得られる点はエッジ経路に設定され、即ちE(t)=P′(t)である。
【0071】
方法Bの多少の変形において、係数c及びcは、両方共、例えば−1のような負の数に選択される。このことはスネークとこれらのエッジとの間に反発を発生する。この状態において、それをP(t)とP(t)との間に位置させて初期化した後に、1つの経路P′(t)のみを移動させることが必要であるに過ぎない。
【0072】
ステップ815:フレームt+1においてE(t)をエッジへ移動
時間t+1において発生する次のフレームにおいてE(t)をエッジへ移動することは、例えばKassにおいて記載されているような標準のスネークアルゴリズム、又は上述した方法A及び方法Bのいずれか1つを使用して行うことが可能である。1つの実現例においては、方法Bのスネークアルゴリズムをc=c=0及びフレームtの代わりにフレームt+1における画像強度値に基づく勾配で繰り返し行い、エッジ勾配G(x,y)のみを残存させて駆動外部力を発生する。スネーク動的アルゴリズムの多数回繰返しの後に、即ち典型的に15回の後に、得られる結果は、時間t+1において発生するフレーム内のオブジェクトに対するエッジ経路E(t+1)である。
【0073】
ステップ820:結合した局所的変換Tの決定
変換Tは、経路E(t)における各点に対して1つの変換のリストとして考えることが可能であり、即ちT={T,T,...T}はE(t)={r,r,...r}に対応しており、従ってTをEへ適用するとE(T+1)=TE(T)={T,T,...T}となる。
【0074】
経路E(T)における各点r(t)に対して、対応する局所的変換Tが計算される。半径rの円がその点の周りに描かれる。Rはユーザによって制御することが可能であり且つ1個のピクセルから画像寸法にわたる範囲の値を取ることが可能である。Rのより大きな値はグローバルオブジェクト運動を追跡することを可能とするが、局所的な歪みをミスする場合がある。Rのより小さな値は、Rの程度のスケール寸法を有する曲線内の特徴に対し追跡することを可能とする。
【0075】
(t)を取囲む円内側に存在するエッジ経路E(t)内の1組の点は局所的曲線E1iを形成し、それはその点に関連する局所的変換Tを見つけ出すために使用される。E1iの各点に対して、エッジ経路E(T+1)内に対応する点E2iが存在している。インデックス1i及び2iは表記を簡単にするためにのみ選択してあり、いずれかの絶対的なフレーム番号に関連するものと考えるべきではない。変換T(dx,dy,θ,scaleX,scaleY)は以下のようにしてE1iをE2iと比較することによって見つけ出される。
【0076】
【数5】
Figure 2004516589
【0077】
尚、<...>は局所的曲線E1i内に包含される1組の点にわたって担持される取囲まれた量の平均値を表わしている。
【0078】
ステップ825:変換Tを内側経路及び外側経路へ適用
次いで、変換T(dx,dy,θ,scaleX,scaleY)を、rを並進させ、回転させ、スケーリングさせることによりE2iの最良の近似を発生させるためにエッジ曲線E1iにおけるi番目の点に対して経路1内の最も近い点として選択した経路1内の点rに対して適用する。
【0079】
【数6】
Figure 2004516589
【0080】
変換T(dx,dy,θ,scaleX,scaleY)をP(t)における各点に対して適用する。上述したのと同一の変換式を使用して、同一の手順をT(t)における各点に対して実施し、この場合にも、rはエッジ曲線におけるi番目の点に対しP(t)における最も近い点である。このように、エッジ曲線が現在のフレームとその後のフレームとの間で経験する変換を真似るような態様でP(t)及びP(t)が局所的に変換される。
【0081】
本発明は、デジタルエレクトロニック回路において、又はコンピュータハードウエア、ファームウエア、ソフトウエア、又はそれらの組合わせで実現することが可能である。本発明装置は、プログラム可能なプロセッサによる実行のために機械読取可能な格納装置において明示的に具体化されたコンピュータプログラムプロダクトで実現することが可能であり、且つ本発明の方法ステップは、入力データに関して演算を行い且つ出力を発生することにより本発明の機能を実施する命令のプログラムを実行するプログラム可能なプロセッサによって実行することが可能である。本発明は、データ及び命令をデータ格納システムから受取り且つデータ及び命令をそれへ送信すべく結合されている少なくとも1個のプログラム可能なプロセッサと、少なくとも1個の入力装置と、少なくとも1個の出力装置とを包含するプログラム可能なシステム上で実行可能な1つ又はそれ以上のコンピュータプログラムで効果的に実現させることが可能である。各コンピュータプログラムは、ハイレベル手順又はオブジェクト指向型プログラミング言語で、又はアッセンブリ又は所望によりマシン言語で実現することが可能であり且ついずれの場合においても、該言語はコンパイル型又はインタプリタ型の言語とすることが可能である。適宜のプロセッサは、例示として、汎用及び特別目的マイクロプロセッサの両方を包含している。通常、プロセッサはリードオンリメモリ及び/又はランダムアクセスメモリから命令とデータとを受取る。通常、コンピュータはデータファイルを格納するために1個又はそれ以上の大量格納装置を有しており、このような装置は例えば内部ハードディスク又は着脱自在なディスク等の磁気ディスク、MOディスク、及び光学的ディスクを包含している。コンピュータプログラム命令及びデータを明示的に実現するのに適した格納装置は、例えばEPROM、EEPROM、フラッシュメモリ装置等の半導体メモリ装置を包含する全ての形態の非揮発的メモリ、内部ハードディスク及び着脱自在ディスク等の磁気ディスク、MOディスク、CD−ROMディスクを包含している。前述したもののいずれもASIC(応用特定集積回路)によって補充されるか又はその中に組込むことが可能である。
【0082】
ユーザとの対話を与えるために、本発明は、ユーザに対して情報を表示するためのモニタ又はLCDスクリーン等のディスプレイ装置、及びそれによりユーザがコンピュータシステムへ入力を与えることが可能なマウス又はトラックボール等のポインティングデバイス及びキーボードを具備するコンピュータシステム上で実現することが可能である。コンピュータシステムは、それを介してコンピュータプログラムがユーザと対話するグラフィカルユーザインターフェースを提供するようにプログラムすることが可能である。
【0083】
本発明の多数の実現例について説明した。然しながら、本発明の精神及び範囲を逸脱することなしに種々の修正を行うことが可能であることが理解される。従って、その他の実現例は特許請求の範囲内のものである。
【図面の簡単な説明】
【図1】内側経路及び外側経路を使用してデジタルビデオクリップからオブジェクトを選択し且つ抽出するためのフローチャート。
【図2】オブジェクト境界に沿っての単一経路を使用してデジタルビデオクリップからオブジェクトを選択し且つ抽出するためのフローチャート。
【図3A】第一バックグラウンドに対して第一位置にあるオブジェクトを示した第一デジタル画像。
【図3B】第一バックグラウンドに対して第二位置にあるオブジェクトを示した第二デジタル画像。
【図4A】新たなバックグラウンドに対して配置した図3Aにおけるオブジェクトを示した第一デジタル画像。
【図4B】新たなバックグラウンドに対して配置した図3Bにおけるオブジェクトを示した第二デジタル画像。
【図5】図1及び図2の抽出ステップを示したフローチャート。
【図6】バックグラウンドの一部を包含するオブジェクトを示したデジタル画像。
【図7】1つのキーフレームのみを使用してオブジェクトを選択し且つ抽出するためのフローチャート。
【図8】図7の追跡ステップの詳細を示したフローチャート。

Claims (98)

  1. デジタル画像のフォアグラウンド部分をデジタル画像のバックグラウンド部分からマスキングする方法において、該デジタル画像はデジタル画像の時間系列を有するビデオの一部であり、各画像は複数個のピクセルにより画定されており、本方法が、
    第一境界領域を画定する第一入力を受取り、該第一境界領域は第一デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    第二境界領域を画定する第二入力を受取り、該第二境界領域は第二デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対して中間境界領域を補間し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用する、
    ことを包含している方法。
  2. 請求項1において、第一及び第二入力を受取ることが、該境界領域を画定するユーザ入力を受取る、
    ことを包含しており、且つ中間境界領域を補間することが、
    ユーザ入力なしで自動的に中間境界領域を補間する、
    ことを包含している方法。
  3. 請求項1において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用することが、
    それが該フォアグラウンド部分と関連するデータを包含するか否かを境界領域内のピクセルに対して決定すること、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスクするために該決定ステップの結果を使用すること、
    を包含している方法。
  4. 請求項1において、更に、
    該第一、第二、中間境界領域におけるピクセルに対する本質的なカラー値を推定し、
    該バックグラウンド部分から該フォアグラウンド部分を抽出するために該推定した本質的カラー値を使用する、
    上記各ステップを包含している方法。
  5. 請求項1において、境界領域を表わす入力を受取ることが、フォアグラウンド部分内側に位置した内側経路を発生し、
    該フォアグラウンド部分の外側に位置しており且つ該内側経路を取囲む外側経路を発生し、
    該内側経路と外側経路との間のピクセルが境界領域に属する、
    ことを包含している方法。
  6. 請求項5において、内側経路と外側経路とを発生することが、ベクトルを基礎とした内側経路及びベクトルを基礎とした外側経路を発生することを包含している方法。
  7. 請求項2において、該境界領域を表わす入力を受取ることが、該境界領域のものを取囲む幅を有する単一経路を発生することを包含している方法。
  8. 請求項7において、単一経路を発生することが、ベクトルを基礎とした単一経路を発生することを包含している方法。
  9. 請求項7において、単一経路を発生することが、その長さにわたって可変厚さを有する単一経路を発生することを包含している方法。
  10. 請求項1において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用することが、
    該フォアグラウンド部分と該境界領域の一部とをマスキングすること、
    該境界領域の該部分に対してガウシアンぼかしを適用すること、
    を包含している方法。
  11. 請求項10において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示することを包含している方法。
  12. 請求項1において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用することが、
    該フォアグラウンド部分と該境界領域の一部とをマスキングし、
    該フォアグラウンド部分と共に表示される該境界領域の該部分におけるピクセルの不透明度を決定し、
    スレッシュホールド値より大きな不透明度を有するピクセルに対する不透明度を変化させる、
    ことを包含している方法。
  13. 請求項12において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示することを包含している方法。
  14. 請求項1において、更に、
    該第一デジタル画像における第二フォアグラウンド部分に対する境界領域を画定する入力を受取り、該境界領域は第二フォアグラウンド部分の少なくとも一部と該バックグラウンド部分の少なくとも一部とを包含しており、
    該第二デジタル画像における該第二フォアグラウンド部分に対する境界領域を画定する入力を受取り、該境界領域は該第二フォアグラウンド部分の少なくとも一部と該バックグラウンド部分の少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して中間にある画像に対する該第二フォアグラウンド部分に対する中間境界領域を補間する、
    ことを包含している方法。
  15. 請求項1において、更に、
    第一内部境界領域を画定する入力を受取り、該第一内部境界領域は、第一デジタル画像において、該第一境界領域によって取囲まれており、
    第二内部境界領域を画定する入力を受取り、該第二内部境界領域は、第二デジタル画像において、該第二境界領域によって取囲まれており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対する中間内部境界領域を補間し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域及び該第一内部、第二内部、中間内部境界領域を使用する、
    ことを包含している方法。
  16. 請求項15において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該フォアグラウンド部分の少なくとも一部を包含している方法。
  17. 請求項15において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該バックグラウンド部分の少なくとも一部を包含している方法。
  18. 請求項15において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含している方法。
  19. 請求項1において、該フォアグラウンド部分がオブジェクトである方法。
  20. デジタル画像のバックグラウンド部分からデジタル画像のフォアグラウンド部分をマスキングする方法において、該デジタル画像はデジタル画像の時間系列を有するビデオの一部であり、各画像は複数個のピクセルから画定されており、本方法が、
    初期的境界領域を画定する入力を受取り、該初期的境界領域は初期的デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    該初期的境界領域に基づいて該時間系列における別のデジタル画像に対する境界領域を自動的に発生し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的で且つ自動的に発生した境界領域を使用する、
    ことを包含している方法。
  21. 請求項20において、入力を受取ることが該境界領域を画定するユーザ入力を受取ることを包含している方法。
  22. 請求項20において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的且つ自動的に決定した境界領域を使用することが、
    それが該フォアグラウンド部分と関連するデータを有しているか否かを境界領域におけるピクセルに対して決定し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスクするために該決定ステップの結果を使用する、
    ことを包含している方法。
  23. 請求項20において、更に、
    該第一、第二、中間境界領域におけるピクセルに対して本質的なカラー値を推定し、
    該バックグラウンド部分から該フォアグラウンド部分を抽出するために該推定した本質的なカラー値を使用する、
    ことを包含している方法。
  24. 請求項21において、該境界領域を表わすユーザ入力を受取ることが、
    該フォアグラウンド部分内側に位置している内側経路を発生し、
    該内側経路を取囲み且つ該フォアグラウンド部分の外側に位置している外側経路を発生し、該内側経路及び外側経路の間のピクセルが境界領域に属する、
    ことを包含している方法。
  25. 請求項24において、内側経路及び外側経路を発生することが、ベクトルを基礎にした内側経路及びベクトルを基礎にした外側経路を発生することを包含している方法。
  26. 請求項21において、該境界領域を表わすユーザ入力を受取ることが、該境界領域を取囲む幅を有する単一経路を発生することを包含している方法。
  27. 請求項26において、単一経路を発生することがベクトルを基礎にした単一経路を発生することを包含している方法。
  28. 請求項26において、単一経路を発生することがその長さにわたり可変厚さを有している単一経路を発生することを包含している方法。
  29. 請求項20において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的且つ該自動的に発生した境界領域を使用することが、
    該フォアグラウンド部分及び該境界領域の一部をマスキングし、
    該境界領域の該部分に対してガウシアンぼかしを適用する、
    ことを包含している方法。
  30. 請求項29において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示することを包含している方法。
  31. 請求項20において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的且つ該自動的に発生した境界領域を使用することが、
    該フォアグラウンド部分及び該境界領域の一部をマスキングし、
    該フォアグラウンド部分と共に表示される該境界領域の該部分におけるピクセルの不透明度を決定し、
    スレッシュホールド値より大きな不透明度を有するピクセルに対する不透明度を変化させる、
    ことを包含している方法。
  32. 請求項31において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示することを包含している方法。
  33. 請求項20において、更に、
    第二フォアグラウンド部分に対する初期的境界領域を画定する入力を受取り、該境界領域は該フォアグラウンド部分を具備するデジタル画像において該バックグラウンド部分の少なくとも一部及び第二フォアグラウンド部分の少なくとも一部を包含しており、
    該第二フォアグラウンド部分に対する初期的境界領域に基づいて時間系列における別の画像における該第二フォアグラウンド部分に対する境界領域を自動的に発生し、
    デジタルビデオにおける該バックグラウンド部分から該第二フォアグラウンド部分をマスキングするために該初期的且つ自動的に発生した境界領域を使用する、
    ことを包含している方法。
  34. 請求項20において、更に、
    初期的内部境界領域を画定する入力を受取り、該初期的内部境界領域は、第一デジタル画像において、該初期的境界領域によって取囲まれており、
    該初期的内部境界領域に基づいて時間系列における別の画像に対し初期的境界領域を自動的に発生し、
    デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的内部及び該自動的に発生した内部境界領域を使用する、
    ことを包含している方法。
  35. 請求項34において、該初期的内部境界領域及び該自動的に発生した内部境界領域が該フォアグラウンド部分の少なくとも一部を包含している方法。
  36. 請求項34において、該初期的内部境界領域及び該自動的に発生した内部境界領域が該バックグラウンド部分の少なくとも一部を包含している方法。
  37. 請求項34において、該初期的内部境界領域及び該自動的に発生した内部境界領域が、該バックグラウンド部分の少なくとも一部及び該フォアグラウンド部分の少なくとも一部を包含している方法。
  38. 請求項20において、該フォアグラウンド部分がオブジェクトである方法。
  39. 請求項20において、別のデジタル画像に対して境界領域を自動的に発生することが、
    該初期的境界領域におけるエッジ経路を識別し、該エッジ経路は該初期的デジタル画像における該フォアグラウンド部分のエッジを表わし、
    自動的に発生した境界領域におけるエッジ経路を識別し、該エッジ経路は別のデジタル画像における該フォアグラウンド部分のエッジを表わし、
    該初期的デジタル画像と該別のデジタル画像との間のエッジ経路変換を決定し、
    該別のデジタル画像において境界領域を発生するために該初期的デジタル画像における該内側経路及び該外側経路に対して該エッジ経路変換を適用する、
    ことを包含している方法。
  40. 請求項39において、該別の自動的に発生した境界領域において該エッジ経路を識別することが、前に識別したエッジ経路に関して動作するスネークアルゴリズムを使用して該エッジ経路を識別することを包含している方法。
  41. 請求項39において、該初期的境界領域内のエッジ経路を識別することが、スレッシュホールド値を超える画像勾配値を有する該境界領域内の点を見つけ出すことを包含している方法。
  42. 請求項41において、更に、該初期的境界領域内の各カラーチャンネルに対して画像勾配値を計算することを包含している方法。
  43. 請求項39において、該初期的境界領域内のエッジ経路を識別することが、
    該内側経路及び該外側経路をコピーし、
    該内側経路及び該外側経路のコピーを互いに向かって且つスネークアルゴリズムを使用して該フォアグラウンド部分のエッジに向かって移動させ、
    該内側経路のコピーと該外側経路のコピーとが1つの経路に収束する場合に該エッジ経路を該経路として識別する、
    ことを包含している方法。
  44. 請求項39において、エッジ経路変換を決定することが、1組の局所的エッジ経路変換を決定することを包含しており、該1組の局所的エッジ経路変換が一体的に該エッジ経路変換を形成している方法。
  45. 請求項44において、1組の局所的エッジ経路変換を決定することが、該エッジ経路における各点に対して局所的エッジ経路変換を決定することを包含している方法。
  46. 請求項44において、1組の局所的エッジ経路変換を決定することが、該1組の局所的エッジ経路変換における各局所的エッジ経路変換に対する並進、回転、スケーリングを決定することを包含している方法。
  47. 請求項39において、該内側及び外側経路に対して該エッジ経路変換を適用することが、該外側経路内の各点に対して且つ該内側経路内の各点に対して1組の局所的変換を適用することを包含しており、該1組の局所的変換が該エッジ経路変換を形成している方法。
  48. 請求項47において、1組の局所的変換を適用することが、該外側経路及び該内側経路の各局所的変換として並進、回転、スケーリングを適用することを包含している方法。
  49. デジタルビデオにおけるバックグラウンドからオブジェクトをマスキングする方法において、該デジタルビデオはデジタル画像の時間系列を有しており、各画像は複数個のピクセルによって画定されており、本方法が、
    第一境界領域を画定する第一ユーザ入力を受取り、該第一境界領域は第一デジタル画像における該バックグラウンドの少なくとも一部と該オブジェクトの少なくとも一部とを包含しており、
    第二境界領域を画定する第二ユーザ入力を受取り、該第二境界領域は第二デジタル画像における該バックグラウンド部分の少なくとも一部と該オブジェクトの少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対する中間境界領域を補間し、
    該デジタルビデオにおける該バックグラウンドから該オブジェクトをマスキングするために該第一、第二及び中間境界領域を使用し、
    該デジタルビデオにおける該バックグラウンドから該オブジェクトを抽出するために該第一、第二、中間境界領域を使用し、
    該マスクし且つ抽出したオブジェクトを別のデジタルビデオにおける新たなバックグラウンドに対して配置させる、
    ことを包含している方法。
  50. デジタル画像のバックグラウンド部分からデジタル画像のフォアグラウンド部分をマスキングするためにコンピュータ読取可能媒体又は伝播キャリア信号内に明示的に具体化されたコンピュータソフトウエアにおいて、該デジタル画像はデジタル画像の時間系列を有するビデオの一部であり、各画像は複数個のピクセルによって画定されており、本ソフトウエアは以下の動作、
    第一境界領域を画定する第一入力を受取り、該第一境界領域が第一デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    第二境界領域を画定する第二入力を受取り、該第二境界領域は第二デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対する中間境界領域を補間し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用する、
    動作を実施するための命令を有しているコンピュータソフトウエア。
  51. 請求項50において、第一及び第二入力を受取る該命令が、
    該境界領域を画定するユーザ入力を受取る、
    ための命令を有しており、且つ中間境界領域を補間することが、
    ユーザ入力なしに自動的に中間境界領域を補間する、
    ことを包含しているコンピュータソフトウエア。
  52. 請求項50において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用するための該命令が、
    それが該フォアグラウンド部分と関連するデータを包含しているか否かを境界領域におけるピクセルに対して決定し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスクするために該決定ステップの結果を使用する、
    ための命令を有しているコンピュータソフトウエア。
  53. 請求項50において、更に、以下の動作、
    該第一、第二、中間境界領域におけるピクセルに対する本質的なカラー値を推定し、
    該バックグラウンド部分から該フォアグラウンド部分を抽出するために該推定した本質的なカラー値を使用する、
    動作を実施するための命令を包含しているコンピュータソフトウエア。
  54. 請求項50において、該境界領域を表わす入力を受取る該命令が、
    フォアグラウンド部分内側に位置している内側経路を発生し、
    該内側経路を取囲み且つ該フォアグラウンド部分外側に位置している外側経路を発生し、
    該内側経路及び外側経路の間のピクセルが境界領域に属している、
    ための命令を包含しているコンピュータソフトウエア。
  55. 請求項54において、内側経路及び外側経路を発生するための該命令が、ベクトルを基礎とした内側経路及びベクトルを基礎とした外側経路を発生するための命令を包含しているコンピュータソフトウエア。
  56. 請求項51において、該境界領域を表わす入力を受取る該命令が、該境界領域のものを取囲む幅を有する単一経路を発生するための命令を包含しているコンピュータソフトウエア。
  57. 請求項56において、単一経路を発生するための該命令がベクトルを基礎とした単一経路を発生するための命令を包含しているコンピュータソフトウエア。
  58. 請求項56において、単一経路を発生するための該命令が、その長さにわたって可変厚さを有する単一経路を発生するための命令を包含しているコンピュータソフトウエア。
  59. 請求項50において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用する該命令が、
    該フォアグラウンド部分及び該境界領域の一部をマスクし、
    該境界領域の該部分に対してガウシアンぼかしを適用する、
    ための命令を包含しているコンピュータソフトウエア。
  60. 請求項59において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示するための命令を包含しているコンピュータソフトウエア。
  61. 請求項50において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域を使用するための該命令が、
    該フォアグラウンド部分及び該境界領域の一部をマスクし、
    該フォアグラウンド部分と共に表示される該境界領域の該部分におけるピクセルの不透明度を決定し、
    スレッシュホールド値より大きな不透明度を有するピクセルに対する不透明度を変化させる、
    ための命令を包含しているコンピュータソフトウエア。
  62. 請求項61において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示するための命令を包含しているコンピュータソフトウエア。
  63. 請求項50において、更に、以下の動作、
    該第一デジタル画像における第二フォアグラウンド部分に対する境界領域を画定する入力を受取り、該境界領域は該バックグラウンド部分の少なくとも一部と第二フォアグラウンド部分の少なくとも一部とを包含しており、
    該第二デジタル画像における該第二フォアグラウンド部分に対する境界領域を画定する入力を受取り、該境界領域は該バックグラウンド部分の少なくとも一部と該第二フォアグラウンド部分の少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して中間にある画像に対する該第二フォアグラウンド部分に対する中間境界領域を補間する、
    動作を実施するための命令を包含しているコンピュータソフトウエア。
  64. 請求項50において、更に、以下の動作、
    第一内部境界領域を画定する入力を受取り、該第一内部境界領域は、第一デジタル画像において、該第一境界領域によって取囲まれており、
    第二内部境界領域を画定する入力を受取り、該第二内部境界領域は、第二デジタル画像において、該第二境界領域によって取囲まれており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対する中間内部境界領域を補間し、
    該デジタルビデオにおいて該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該第一、第二、中間境界領域、及び該第一内部、第二内部、中間内部境界領域を使用する、
    動作を実施するための命令を包含しているコンピュータソフトウエア。
  65. 請求項64において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該フォアグラウンド部分の少なくとも一部を包含しているコンピュータソフトウエア。
  66. 請求項64において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該バックグラウンド部分の少なくとも一部を包含しているコンピュータソフトウエア。
  67. 請求項64において、該第一内部境界領域、該第二内部境界領域、該中間内部境界領域が該フォアグラウンド部分の少なくとも一部及び該バックグラウンド部分の少なくとも一部を包含しているコンピュータソフトウエア。
  68. 請求項50において、該フォアグラウンド部分がオブジェクトであるコンピュータソフトウエア。
  69. デジタル画像のバックグラウンド部分からデジタル画像のフォアグラウンド部分をマスキングするためにコンピュータ読取可能媒体又は伝播搬送信号内に明示的に具体化されているコンピュータソフトウエアにおいて、該デジタル画像がデジタル画像の時間系列を有するビデオの一部であり、各画像が複数個のピクセルによって画定されており、本ソフトウエアが、以下の動作、
    初期的境界領域を画定する入力を受取り、該初期的境界領域が初期的デジタル画像における該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しており、
    該初期的境界領域に基づいて該時間系列における別のデジタル画像に対する境界領域を自動的に発生し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的且つ自動的に発生した境界領域を使用する、動作を実施するための命令を包含しているコンピュータソフトウエア。
  70. 請求項69において、入力を受取るための該命令が該境界領域を画定するユーザ入力を受取るための命令を包含しているコンピュータソフトウエア。
  71. 請求項69において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的且つ自動的に決定した境界領域を使用する該命令が、
    それが該フォアグラウンド部分と関連するデータを有しているか否かを境界領域におけるピクセルに対して決定し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスクするために該決定ステップの結果を使用する、
    命令を包含しているコンピュータソフトウエア。
  72. 請求項69において、更に、以下の動作、
    該第一、第二、中間境界領域におけるピクセルに対する本質的なカラー値を推定し、
    該バックグラウンド部分から該フォアグラウンド部分を抽出するために該推定した本質的なカラー値を使用する、
    動作を実施するための命令を包含しているコンピュータソフトウエア。
  73. 請求項70において、該境界領域を表わすユーザ入力を受取る該命令が、
    該フォアグラウンド部分内側に位置している内側経路を発生し、
    該内側経路を取囲み且つ該フォアグラウンド部分外側に位置している外側経路を発生し、該内側経路及び外側経路の間のピクセルが境界領域に属している、
    命令を包含しているコンピュータソフトウエア。
  74. 請求項73において、内側経路及び外側経路を発生するための該命令が、ベクトルを基礎とした内側経路及びベクトルを基礎とした外側経路を発生するための命令を包含しているコンピュータソフトウエア。
  75. 請求項70において、該境界領域を表わすユーザ入力を受取る該命令が、該境界領域を取囲む幅を有している単一経路を発生する命令を包含しているコンピュータソフトウエア。
  76. 請求項75において、単一経路を発生するための該命令が、ベクトルを基礎とした単一経路を発生するための命令を包含しているコンピュータソフトウエア。
  77. 請求項75において、単一経路を発生するための該命令が、その長さにわたって可変厚さを有する単一経路を発生するための命令を包含しているコンピュータソフトウエア。
  78. 請求項69において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的及び該自動的に発生した境界領域を使用するための該命令が、
    該フォアグラウンド部分及び該境界領域の一部をマスクし、
    該境界領域の該部分に対してガウシアンぼかしを適用する、
    ための命令を包含しているコンピュータソフトウエア。
  79. 請求項78において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示するための命令を包含しているコンピュータソフトウエア。
  80. 請求項69において、該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的及び該自動的に発生した境界領域を使用するための該命令が、
    該フォアグラウンド部分及び該境界領域の一部をマスクし、
    該フォアグラウンド部分と共に表示される該境界領域の該部分におけるピクセルの不透明度を決定し、
    スレッシュホールド値より大きな不透明度を有しているピクセルに対する不透明度を変化させる、
    ための命令を包含しているコンピュータソフトウエア。
  81. 請求項80において、更に、該マスクしたフォアグラウンド部分及び該境界領域の該部分を表示するための命令を包含しているコンピュータソフトウエア。
  82. 請求項69において、更に、以下の動作、
    第二フォアグラウンド部分に対する初期的境界領域を画定する入力を受取り、該境界領域は第二フォアグラウンド部分の少なくとも1部と該第一フォアグラウンド部分を有する該デジタル画像における該バックグラウンド部分の少なくとも一部とを包含しており、
    該第二フォアグラウンド部分に対する該初期的境界領域に基づいて時間系列における別の画像における該第二フォアグラウンド部分に対する境界領域を自動的に発生し、
    該デジタルビデオにおける該バックグラウンド部分から該第二フォアグラウンド部分をマスキングするために該初期的且つ自動的に発生した境界領域を使用する、
    ための動作を実施するための命令を包含しているコンピュータソフトウエア。
  83. 請求項69において、更に、以下の動作、
    初期的内部境界領域を画定する入力を受取り、該初期的内部境界領域が、第一デジタル画像において、該初期的境界領域によって取囲まれており、
    該初期的内部境界領域に基づいて時間的系列における別の画像に対する内部境界領域を自動的に発生し、
    該デジタルビデオにおける該バックグラウンド部分から該フォアグラウンド部分をマスキングするために該初期的内部及び該自動的に発生した内部境界領域を使用する、
    ための動作を実施するための命令を包含しているコンピュータソフトウエア。
  84. 請求項83において、該初期的内部境界領域及び該自動的に発生した内部境界領域が該フォアグラウンド部分の少なくとも一部を包含しているコンピュータソフトウエア。
  85. 請求項83において、該初期的内部境界領域及び該自動的に発生した内部境界領域が該バックグラウンド部分の少なくとも一部を包含しているコンピュータソフトウエア。
  86. 請求項83において、該初期的内部境界領域及び該自動的に発生した内部境界領域が該バックグラウンド部分の少なくとも一部と該フォアグラウンド部分の少なくとも一部とを包含しているコンピュータソフトウエア。
  87. 請求項69において、該フォアグラウンド部分がオブジェクトであるコンピュータソフトウエア。
  88. 請求項69において、別のデジタル画像に対する境界領域を自動的に発生する該命令が、
    該初期的境界領域におけるエッジ経路を識別し、該エッジ経路は該初期的デジタル画像における該フォアグラウンド部分のエッジを表わし、
    自動的に発生した境界領域におけるエッジ経路を識別し、該エッジ経路は該別のデジタル画像における該フォアグラウンド部分のエッジを表わし、
    該デジタル画像と該別のデジタル画像との間のエッジ経路変換を決定し、
    該別のデジタル画像における境界領域を発生するために該初期的デジタル画像における該内側経路及び該外側経路に対して該エッジ経路変換を適用する、
    ための命令を包含しているコンピュータソフトウエア。
  89. 請求項88において、該別の自動的に発生した境界領域における該エッジ経路を識別するための該命令が、
    前に識別したエッジ経路に関して動作するスネークアルゴリズムを使用して該エッジ経路を識別する、
    ための命令を包含しているコンピュータソフトウエア。
  90. 請求項88において、該初期的境界領域におけるエッジ経路を識別するための該命令が、
    スレッシュホールド値を超える画像勾配値を有する該境界領域における点を見つけ出す、
    ための命令を包含しているコンピュータソフトウエア。
  91. 請求項90において、更に、該初期的境界領域における各カラーチャンネルに対する画像勾配値を計算するための命令を包含しているコンピュータソフトウエア。
  92. 請求項88において、該初期的境界領域におけるエッジ経路を識別するための該命令が、
    該内側経路及び該外側経路をコピーし、
    該内側経路及び該外側経路の該コピーを互いに向かって且つスネークアルゴリズムを使用して該フォアグラウンド部分のエッジに向かって移動させ、
    該内側経路のコピーと該外側経路のコピーとが1つの経路に収束する経路して該エッジ経路を識別する、
    ための命令を包含しているコンピュータソフトウエア。
  93. 請求項88において、エッジ経路変換を決定するための該命令が、
    1組の局所的エッジ経路変換を決定し、該1組の局所的エッジ経路変換が一体となって該エッジ経路変換を形成する、
    ための命令を包含しているコンピュータソフトウエア。
  94. 請求項93において、1組の局所的エッジ経路変換を決定するための該命令が、該エッジ経路における各点に対する局所的エッジ経路変換を決定するための命令を包含しているコンピュータソフトウエア。
  95. 請求項93において、1組の局所的エッジ経路変換を決定するための該命令が、該1組の局所的エッジ経路変換における各局所的エッジ経路変換に対する並進、回転、スケーリングを決定するための命令を包含しているコンピュータソフトウエア。
  96. 請求項88において、該内側及び外側経路に対して該エッジ経路変換を適用する該命令が、該内側経路における各点に対して且つ該外側経路における各点に対して1組の局所的変換を適用するための命令を包含しており、該1組の局所的変換が該エッジ経路変換を形成しているコンピュータソフトウエア。
  97. 請求項96において、1組の局所的変換を適用する該命令が、該内側経路及び該外側経路の各局所的変換として並進、回転、スケーリングを適用するための命令を包含しているコンピュータソフトウエア。
  98. デジタルビデオにおけるバックグラウンドからオブジェクトをマスキングするためにコンピュータ読取可能媒体又は伝播搬送信号において明示的に具体化されているコンピュータソフトウエアにおいて、該デジタルビデオはデジタル画像の時間系列を有しており、各画像は複数個のピクセルによって画定されており、該ソフトウエアは、以下の動作、
    第一境界領域を画定する第一ユーザ入力を受取り、該第一境界領域は第一デジタル画像における該バックグラウンドの少なくとも一部と該オブジェクトの少なくとも一部とを包含しており、
    第二境界領域を画定する第二ユーザ入力を受取り、該第二境界領域は第二デジタル画像における該バックグラウンド部分の少なくとも一部と該オブジェクトの少なくとも一部とを包含しており、
    該第一及び第二デジタル画像に対して時間的に中間にある画像に対し中間境界領域を補間し、
    該デジタルビデオにおける該バックグラウンドから該オブジェクトをマスキングするために該第一、第二、中間境界領域を使用し、
    該デジタルビデオにおける該バックグラウンドから該オブジェクトを抽出するために該第一、第二、中間境界領域を使用し、
    別のデジタルビデオにおける新たなバックグラウンドに対して該マスクし且つ抽出したオブジェクトを配置させる、
    ための動作を実施するための命令を包含しているコンピュータソフトウエア。
JP2002553319A 2000-12-21 2001-12-06 デジタルビデオにおける複合シーンからの画像抽出 Expired - Lifetime JP4145652B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/747,945 US7003061B2 (en) 2000-12-21 2000-12-21 Image extraction from complex scenes in digital video
PCT/US2001/046438 WO2002052739A1 (en) 2000-12-21 2001-12-06 Image extraction from complex scenes in digital video

Publications (3)

Publication Number Publication Date
JP2004516589A true JP2004516589A (ja) 2004-06-03
JP2004516589A5 JP2004516589A5 (ja) 2005-12-22
JP4145652B2 JP4145652B2 (ja) 2008-09-03

Family

ID=25007348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002553319A Expired - Lifetime JP4145652B2 (ja) 2000-12-21 2001-12-06 デジタルビデオにおける複合シーンからの画像抽出

Country Status (5)

Country Link
US (2) US7003061B2 (ja)
JP (1) JP4145652B2 (ja)
DE (1) DE10197062B4 (ja)
GB (1) GB2389987B (ja)
WO (1) WO2002052739A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013506907A (ja) * 2009-09-30 2013-02-28 マイクロソフト コーポレーション ビデオコンテンツを意識した広告掲載

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2370709A (en) * 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
US7148917B2 (en) * 2001-02-01 2006-12-12 Motorola Inc. Method and apparatus for indicating a location of a person with respect to a video capturing volume of a camera
US7046732B1 (en) * 2001-06-15 2006-05-16 Objectvideo, Inc. Video coloring book
US7362374B2 (en) * 2002-08-30 2008-04-22 Altera Corporation Video interlacing using object motion estimation
JP4055126B2 (ja) * 2003-02-14 2008-03-05 富士フイルム株式会社 人物画像処理方法及び装置
JP3886471B2 (ja) * 2003-05-20 2007-02-28 ファナック株式会社 画像処理装置
GB2405067B (en) * 2003-08-01 2008-03-12 Caladrius Ltd Blending a digital image cut from a source image into a target image
US8090164B2 (en) * 2003-08-25 2012-01-03 The University Of North Carolina At Chapel Hill Systems, methods, and computer program products for analysis of vessel attributes for diagnosis, disease staging, and surgical planning
US7598956B2 (en) * 2004-04-15 2009-10-06 Microsoft Corporation Blended object attribute keyframing model
US7397964B2 (en) * 2004-06-24 2008-07-08 Apple Inc. Gaussian blur approximation suitable for GPU
US8233681B2 (en) * 2004-09-24 2012-07-31 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for hierarchical registration between a blood vessel and tissue surface model for a subject and a blood vessel and tissue surface image for the subject
US7872654B2 (en) * 2004-11-15 2011-01-18 Dreamworks Animation Llc Animating hair using pose controllers
US7593603B1 (en) 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
GB0508073D0 (en) * 2005-04-21 2005-06-01 Bourbay Ltd Automated batch generation of image masks for compositing
GB0510793D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Segmentation of digital images
GB0510792D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Assisted selections with automatic indication of blending areas
US7408553B1 (en) * 2005-12-15 2008-08-05 Nvidia Corporation Inside testing for paths
US7835043B2 (en) * 2006-09-06 2010-11-16 Hewlett-Packard Development Company, L.P. Imaging device and calibration method therefor
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
US8175409B1 (en) * 2006-12-01 2012-05-08 Adobe Systems Incorporated Coherent image selection and modification
US8004536B2 (en) * 2006-12-01 2011-08-23 Adobe Systems Incorporated Coherent image selection and modification
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8547395B1 (en) 2006-12-20 2013-10-01 Nvidia Corporation Writing coverage information to a framebuffer in a computer graphics system
US20090003698A1 (en) * 2007-04-26 2009-01-01 Heligon Limited Segmentaton of digital images
US8004522B1 (en) 2007-08-07 2011-08-23 Nvidia Corporation Using coverage information in computer graphics
US8325203B1 (en) 2007-08-15 2012-12-04 Nvidia Corporation Optimal caching for virtual coverage antialiasing
WO2009109047A1 (en) * 2008-03-05 2009-09-11 Marc Berube Automatic video method and system
CN105069782B (zh) * 2008-05-28 2018-10-23 苹果公司 一种用于限定图像的边界的方法和设备
US8548251B2 (en) 2008-05-28 2013-10-01 Apple Inc. Defining a border for an image
US8452105B2 (en) * 2008-05-28 2013-05-28 Apple Inc. Selecting a section of interest within an image
CN101729735B (zh) * 2008-10-20 2012-08-22 深圳富泰宏精密工业有限公司 数码照片合成系统及方法
US9355469B2 (en) 2009-01-09 2016-05-31 Adobe Systems Incorporated Mode-based graphical editing
US8566736B1 (en) * 2009-01-19 2013-10-22 Pixar Visualization of value resolution for multidimensional parameterized data
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
CN102013246B (zh) * 2009-09-07 2013-09-18 群康科技(深圳)有限公司 显示装置的伽马对应表的建立方法
US10268360B2 (en) 2010-04-30 2019-04-23 American Teleconferencing Service, Ltd. Participant profiling in a conferencing system
USD656942S1 (en) 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US9082106B2 (en) 2010-04-30 2015-07-14 American Teleconferencing Services, Ltd. Conferencing system with graphical interface for participant survey
US9106794B2 (en) 2010-04-30 2015-08-11 American Teleconferencing Services, Ltd Record and playback in a conference
USD656505S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with animated image
USD642586S1 (en) 2010-04-30 2011-08-02 American Teleconferencing Services, Ltd. Portion of a display screen with a user interface
USD642587S1 (en) 2010-04-30 2011-08-02 American Teleconferencing Services, Ltd. Animated graphical user interface for a portion of a display screen
US10372315B2 (en) 2010-04-30 2019-08-06 American Teleconferencing Services, Ltd Location-aware conferencing with calendar functions
US9189143B2 (en) 2010-04-30 2015-11-17 American Teleconferencing Services, Ltd. Sharing social networking content in a conference user interface
USD656506S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD656941S1 (en) 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US9560206B2 (en) 2010-04-30 2017-01-31 American Teleconferencing Services, Ltd. Real-time speech-to-text conversion in an audio conference session
USD656504S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD656507S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US8626847B2 (en) 2010-04-30 2014-01-07 American Teleconferencing Services, Ltd. Transferring a conference session between client devices
US9419810B2 (en) 2010-04-30 2016-08-16 American Teleconference Services, Ltd. Location aware conferencing with graphical representations that enable licensing and advertising
US8743139B2 (en) 2010-07-20 2014-06-03 Apple Inc. Automatically keying an image
US8675009B2 (en) 2010-07-20 2014-03-18 Apple Inc. Keying an image in three dimensions
US8619093B2 (en) 2010-07-20 2013-12-31 Apple Inc. Keying an image
JP5658945B2 (ja) * 2010-08-24 2015-01-28 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5620194B2 (ja) * 2010-08-24 2014-11-05 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2012030869A2 (en) 2010-08-30 2012-03-08 Apple Inc. Multi-image face-based image processing
US8891864B2 (en) 2011-02-16 2014-11-18 Apple Inc. User-aided image segmentation
US8854370B2 (en) 2011-02-16 2014-10-07 Apple Inc. Color waveform
US20120210229A1 (en) 2011-02-16 2012-08-16 Andrew Bryant Color workflow
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
EP2892228A1 (en) * 2011-08-05 2015-07-08 Fox Sports Productions, Inc. Selective capture and presentation of native image portions
US9014543B1 (en) * 2012-10-23 2015-04-21 Google Inc. Methods and systems configured for processing video frames into animation
US9690762B1 (en) * 2013-01-14 2017-06-27 Google Inc. Manipulating image content items through determination and application of multiple transparency values to visually merge with other content as part of a web page
US9547410B2 (en) 2013-03-08 2017-01-17 Adobe Systems Incorporated Selection editing using a localized level set algorithm
US20160054839A1 (en) * 2013-04-16 2016-02-25 Artware, Inc. Interactive Object Contour Detection Algorithm for Touchscreens Application
US9055186B2 (en) * 2013-07-23 2015-06-09 Personify, Inc Systems and methods for integrating user personas with content during video conferencing
US9386303B2 (en) * 2013-12-31 2016-07-05 Personify, Inc. Transmitting video and sharing content via a network using multiple encoding techniques
GB2522663B (en) 2014-01-31 2020-02-12 Apical Ltd A method of selecting a region of interest
KR20160013329A (ko) * 2014-07-24 2016-02-04 삼성전자주식회사 컨텐츠 제공 방법 및 그 전자 장치
CN104331874B (zh) * 2014-08-11 2017-02-22 阔地教育科技有限公司 一种背景图像提取方法及系统
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US9355457B1 (en) 2015-04-15 2016-05-31 Adobe Systems Incorporated Edge detection using multiple color channels
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10083720B2 (en) * 2015-11-06 2018-09-25 Aupera Technologies, Inc. Method and system for video data stream storage
US9760978B1 (en) * 2016-05-09 2017-09-12 Adobe Systems Incorporated Missing region prediction
US10275892B2 (en) * 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US9911201B2 (en) 2016-06-23 2018-03-06 Adobe Systems Incorporated Imaging process initialization techniques
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US11240403B2 (en) * 2017-02-24 2022-02-01 Avigilon Corporation Compensation for delay in PTZ camera system
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US9992450B1 (en) * 2017-03-24 2018-06-05 Apple Inc. Systems and methods for background concealment in video conferencing session
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US11094116B2 (en) * 2019-11-18 2021-08-17 GE Precision Healthcare LLC System and method for automatic generation of a three-dimensional polygonal model with color mapping from a volume rendering

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58176638A (ja) 1982-04-09 1983-10-17 Dainippon Screen Mfg Co Ltd 抜きマスク版の作製方法
JP3038051B2 (ja) 1991-06-28 2000-05-08 日本放送協会 動画像領域抽出装置
JPH05128257A (ja) 1991-11-08 1993-05-25 Matsushita Electric Ind Co Ltd 画像領域抽出装置
JP3188899B2 (ja) 1991-11-29 2001-07-16 経済産業省産業技術総合研究所長 画像処理装置およびその方法
IL100256A (en) 1991-12-06 1997-01-10 Scitex Corp Ltd Apparatus and method for preparing picture masks
JPH06203157A (ja) 1992-10-14 1994-07-22 Fujitsu Ltd カラー画像処理方法および装置
JPH06231275A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd 画像シミュレーション方法
US6002797A (en) 1994-06-22 1999-12-14 Hitachi, Ltd. Apparatus for detecting position of featuring region of picture, such as subtitle or imageless part
KR100249028B1 (ko) 1995-03-20 2000-03-15 전주범 정지영상을 가진 영상신호를 부호화/복호화하기 위한 부호화/복호화시스템
US6128046A (en) 1995-05-12 2000-10-03 Sony Corporation Key signal generating apparatus and picture synthesis apparatus, and key signal generating method and picture synthesis method
JPH08329253A (ja) 1995-05-31 1996-12-13 Sony Corp エッジ検出方法及びエッジ検出装置
IL114838A0 (en) * 1995-08-04 1996-11-14 Spiegel Ehud Apparatus and method for object tracking
US5912994A (en) * 1995-10-27 1999-06-15 Cerulean Colorization Llc Methods for defining mask of substantially color-homogeneous regions of digitized picture stock
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
US5764814A (en) 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US5852673A (en) * 1996-03-27 1998-12-22 Chroma Graphics, Inc. Method for general image manipulation and composition
JP3750184B2 (ja) 1996-04-03 2006-03-01 松下電器産業株式会社 移動物体の抽出装置及び抽出方法
US5929861A (en) 1996-08-23 1999-07-27 Apple Computer, Inc. Walk-through rendering system
US5914748A (en) * 1996-08-30 1999-06-22 Eastman Kodak Company Method and apparatus for generating a composite image using the difference of two images
JP3812763B2 (ja) 1996-12-04 2006-08-23 ソニー株式会社 キー信号生成装置及び方法
US5960111A (en) 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding
US6035060A (en) 1997-02-14 2000-03-07 At&T Corp Method and apparatus for removing color artifacts in region-based coding
US6008865A (en) 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
US6088392A (en) 1997-05-30 2000-07-11 Lucent Technologies Inc. Bit rate coder for differential quantization
US6300955B1 (en) 1997-09-03 2001-10-09 Mgi Software Corporation Method and system for mask generation
GB9807097D0 (en) * 1998-04-02 1998-06-03 Discreet Logic Inc Processing image data
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
JP2000069368A (ja) 1998-08-21 2000-03-03 Sony Corp 輪郭画像生成装置及び方法、キー信号生成装置及び方法並びに記録媒体
US6134345A (en) 1998-08-28 2000-10-17 Ultimatte Corporation Comprehensive method for removing from an image the background surrounding a selected subject
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
JP2001118075A (ja) 1999-07-09 2001-04-27 Toshiba Corp 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
JP4407985B2 (ja) 1999-09-02 2010-02-03 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
US6665450B1 (en) * 2000-09-08 2003-12-16 Avid Technology, Inc. Interpolation of a sequence of images using motion analysis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013506907A (ja) * 2009-09-30 2013-02-28 マイクロソフト コーポレーション ビデオコンテンツを意識した広告掲載
US9111287B2 (en) 2009-09-30 2015-08-18 Microsoft Technology Licensing, Llc Video content-aware advertisement placement

Also Published As

Publication number Publication date
JP4145652B2 (ja) 2008-09-03
GB2389987A (en) 2003-12-24
DE10197062T5 (de) 2004-04-29
US20020118875A1 (en) 2002-08-29
US7003061B2 (en) 2006-02-21
GB2389987B (en) 2005-03-16
DE10197062B4 (de) 2016-12-15
WO2002052739A1 (en) 2002-07-04
US7729422B2 (en) 2010-06-01
US20060126719A1 (en) 2006-06-15
GB0313990D0 (en) 2003-07-23

Similar Documents

Publication Publication Date Title
JP4145652B2 (ja) デジタルビデオにおける複合シーンからの画像抽出
Oh et al. Onion-peel networks for deep video completion
Perov et al. DeepFaceLab: Integrated, flexible and extensible face-swapping framework
Yu et al. Free-form image inpainting with gated convolution
Bai et al. Video snapcut: robust video object cutout using localized classifiers
USRE42977E1 (en) Method for segmenting a video image into elementary objects
US7430339B2 (en) Border matting by dynamic programming
US8264500B2 (en) Image masks generated from local color models
US7522749B2 (en) Simultaneous optical flow estimation and image segmentation
Barnes et al. The patchmatch randomized matching algorithm for image manipulation
US20110075921A1 (en) Image Selection Techniques
Li et al. Roto++ accelerating professional rotoscoping using shape manifolds
Zeng et al. Sketchedit: Mask-free local image manipulation with partial sketches
US6937760B2 (en) Interactive frame segmentation with dynamic programming
Le et al. Object removal from complex videos using a few annotations
Xie et al. Seamless video composition using optimized mean-value cloning
Ramanarayanan et al. Constrained texture synthesis via energy minimization
Zhang et al. EXCOL: An EXtract-and-COmplete layering approach to cartoon animation reusing
Okabe et al. Interactive video completion
CN114972611B (zh) 一种基于引导匹配损失的深度纹理合成方法及相关设备
Gao et al. Interactive color image segmentation editor driven by active contour model
JPH11510351A (ja) オブジェクト追跡の装置および方法
Liu et al. Video cloning for paintings via artistic style transfer
Perez-Rua et al. Roam: A rich object appearance model with application to rotoscoping
Kim et al. Region removal and restoration using a genetic algorithm with isophote constraint

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080123

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080618

R150 Certificate of patent or registration of utility model

Ref document number: 4145652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term