JP2012528506A - 背景から前景の頭頂部を分離するための方法および装置 - Google Patents

背景から前景の頭頂部を分離するための方法および装置 Download PDF

Info

Publication number
JP2012528506A
JP2012528506A JP2012512405A JP2012512405A JP2012528506A JP 2012528506 A JP2012528506 A JP 2012528506A JP 2012512405 A JP2012512405 A JP 2012512405A JP 2012512405 A JP2012512405 A JP 2012512405A JP 2012528506 A JP2012528506 A JP 2012528506A
Authority
JP
Japan
Prior art keywords
foreground
identifying
region
image
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012512405A
Other languages
English (en)
Other versions
JP5456159B2 (ja
Inventor
カパタ,エイドリアン
シウク,ミハイ
ザムファー,エイドリアン
ドリムバリアン,アレクサンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fotonation Ltd
Original Assignee
DigitalOptics Corp Europe Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DigitalOptics Corp Europe Ltd filed Critical DigitalOptics Corp Europe Ltd
Publication of JP2012528506A publication Critical patent/JP2012528506A/ja
Application granted granted Critical
Publication of JP5456159B2 publication Critical patent/JP5456159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

あるシーンのデジタル画像の前景領域と背景領域を自動的に互いに区別する。前景画素を背景画素と区別する2値画像マップ内に、前景オブジェクトを識別する。前景オブジェクトから、主要な前景オブジェクトを識別する。識別した主要な前景オブジェクトの中で、主要な前景オブジェクトの頭領域の場所を特定する。頭領域の中で、頭頂部領域を示す前景画素および背景画素のパターンを識別する。頭頂部領域の中で、実際は主要な前景オブジェクトの部分を示す、背景画素として識別される画素を前景画素に変換することによって、2値画像マップの精度を向上させることができる。

Description

発明の分野
本発明は概してデジタル画像処理に関し、特に、撮像したデジタル画像内の周囲の背景から、当該撮像デジタル画像の前景内のオブジェクトを分離するための技術に関する。
背景
この節で述べる方策は、追求され得るが、これまでに着想または追求されたことがあるとは限らない方策である。したがって、特に記載のない限り、この節で述べる方策のいずれも、単にこの節に含まれているというだけで先行技術であると見なされると仮定されるべきでない。
デジタル画像のセグメント化は、いくつかの定義済みの判定基準に基づいて画像内の領域を識別することを含む。これらの判定基準は、コンテクスト、数、形状、サイズ、および/または色関連、勾配関連などであり得る。背景/前景セグメント化画像は、被写界深度を向上させるために背景からの前景内のサブジェクトの分離を向上させるため、背景を向上させるか完全に削除するため、または画像から顔や人物などのオブジェクトを抽出するためのアルゴリズムなどの、多数のデジタル画像処理アルゴリズムに用いられ得る。背景/前景セグメント化画像はさらに、画像向上、色補正、および/またはオブジェクトベースの画像分析を含む、多数の画像処理動作にも用いられ得る。
フィルムなしのデジタル画像取得システムは、デジタル画像を撮像するための装置、撮像時に照明を提供するためのフラッシュ部、およびセグメント化ツールを含み得る。セグメント化ツールは、撮像したデジタル画像の前景内の人物などのオブジェクトと、当該撮像デジタル画像の背景を区別し得る。セグメント化を実行するための1つの技術は、フラッシュを用いて撮影した画像をフラッシュを用いずに撮影した画像と比較することを含む。たとえば、非フラッシュ画像はフラッシュ画像の直前に撮影され得、非フラッシュ画像は装置性能を向上させるためにより低い解像度で撮影され得る。画像の前景は、フラッシュ画像の部分と非フラッシュ画像の対応部分との間の強度の変化を特定することによって決定され得る。フラッシュに近接しているため、画像の前景内のオブジェクトはフラッシュを用いて撮像された場合、背景内のオブジェクトよりも強度の変化が大きい。
しかし、フラッシュ画像の部分と非フラッシュ画像の部分との間の強度の変化を測定する技術にはいくつかの制限がある。たとえば、デジタル画像では、人物の頭頂部から光が反射する角度のために、頭がフラッシュによって適切に照らされないことがよくある。代わりに、人物の頭が太陽などの周辺照明によって強く照らされることによってその特定区域(頭頂部)において強度差が発生し、当該特定区域の強度は当該人物の他の区域よりも低いため、画像の前景オブジェクトの一部であったとしても背景の一部であることを示すことがよくある。
本発明の実施例が実現され得るデジタル画像取得装置のブロック図である。 本発明の技術を採用した方法のフローチャートを示す図である。 図2に示す方法のある段階における2値画像マップの例を示す図である。 図2に示す方法のある段階における2値画像マップの例を示す図である。 図2に示す方法のある段階における2値画像マップの例を示す図である。 図2に示す方法のさまざまな段階における2値画像マップのさらなる例を示す図である。 本発明の実施例が実現され得るコンピュータ機器のブロック図である。
詳細な説明
以下の説明では、説明上、本発明の完全な理解を提供するために多数の具体的な詳細を述べる。しかし、本発明はこれらの具体的な詳細なしで実施され得ることが明らかになるであろう。他の例では、本発明を不要に不明瞭にするのを避けるために、周知の構造および装置をブロック図の形態で示す。
概要
本発明の実施例は、あるシーンのデジタル画像の前景領域と背景領域とを区別する方法を含む。1つ以上の前景オブジェクトが、前景画素と背景画素とを区別する2値画像マップ内に識別され得る。1つ以上の前景オブジェクトから、主要な前景オブジェクトが識別され得、識別された主要な前景オブジェクトに一部基づいて、主要な前景オブジェクトの頭領域が推定され得る。頭領域の中に、頭頂部領域を示す前景画素および背景画素のパターンが識別され得る。頭頂部領域の中に、実際は主要な前景オブジェクトの部分を示す、背景画素として識別される画素が前景画素に変換されることによって、2値画像マップの精度を向上させることができる。本発明のさまざまな実施例は、添付の請求項に記載の特徴を有する。
デジタル画像取得システム
図1は、好ましい実施例に従って動作するデジタル画像取得装置20のブロック図を示す。本実施例では携帯型デジタルカメラであり得るデジタル画像取得装置20は、プロセッサ120を含む。当該デジタルカメラにおいて実現される処理の多くは、「プロセッサ」とラベル付されたブロック120として一括して示されるマイクロプロセッサ、中央処理装置、コントローラ、デジタル信号プロセッサおよび/または特定用途向け集積回路(ASIC)内で動作するソフトウェアにおいて実現され得るか、当該ソフトウェアによって制御され得る。一般的に、ユーザインターフェイス、およびボタンやディスプレイなどの周辺構成要素の制御は、マイクロコントローラ122によって制御される。
プロセッサ120は、シャッターボタンの半押下(撮像前モード32)などの122におけるユーザ入力に応答して、デジタル写真処理を開始および制御する。フラッシュを使用するか否か自動的に決定するため、光センサ40を用いて周辺露光量を求める。画像の焦点を撮像構成要素60に合わせる合焦手段50を用いて、サブジェクトまでの距離を求める。フラッシュを使用する場合、プロセッサ120は、シャッターボタンが完全に押下されると、撮像構成要素60による画像の記録と実質的に同時にフラッシュ70に写真用フラッシュを発生させる。
撮像構成要素60は、カラー画像をデジタル方式で記録する。撮像構成要素60は当業者にとって公知であり、デジタル記録を容易にするためのCCD(電荷結合素子)またはCMOSを含み得る。フラッシュは、光センサ40に応答して、またはカメラのユーザからの手動入力72によって、選択的に発生し得る。撮像構成要素60によって記録された画像I(x,y)は、ダイナミックRAMまたは不揮発性メモリなどのコンピュータメモリを含み得る画像記憶構成要素80に記憶される。カメラには、プレビューおよびポストビュー画像のための、LCDなどのディスプレイ100が設けられている。
シャッターボタンが半押下された状態の撮像前モード32で生成されるプレビュー画像P(x,y)の場合、ディスプレイ100は、ユーザが画像を構成するのを助け得、合焦および露光を決定するために用いられ得る。一時記憶空間82が、1つまたは複数のプレビュー画像を記憶するために用いられ、画像記憶手段80の一部または別個の構成要素であり得る。プレビュー画像は通常、撮像構成要素60によって生成される。プレビュー画像のパラメータは、周辺条件を最終画像と等しくする際に後で用いるために記録され得る。または、パラメータは、その結果として撮像された最大解像度画像のパラメータと一致するように決定され得る。速度およびメモリ効率の理由により、汎用プロセッサ120または専用ハードウェアまたはそれらの組合せの一部であり得るソフトウェア124を用いて生の撮像画像をサブサンプリングすることによってプレビュー画像が生成され得、その後、プレビュー画像が表示および記憶される。サブサンプリングは水平方向、垂直方向またはこれら2つの組合せであり得る。このハードウェアサブシステムの設定に依存して、取得前画像処理は、プレビュー画像を記憶する前にいくつかの予め定められた試験判定基準を満たし得る。そのような試験判定基準は時系列であり得、たとえば、シャッターボタンの完全押下によって最終の最大解像度画像I(x,y)を撮像するまで撮像前モード32時に0.5秒ごとに、以前に保存したプレビュー画像を新たに撮像したプレビュー画像に常に置き換えることなどである。より高度な判定基準は、プレビュー画像内容の分析、たとえば、画像に変化があるかどうかの試験、または画像内の顔を検出してから、以前に保存した画像を新たなプレビュー画像に置き換えるか否か決定することを含み得る。他の判定基準は、鮮明度、目の検出などの画像分析、または露光条件、フラッシュを焚くか否か、および/もしくはサブジェクトまでの距離などのメタデータ分析に基づき得る。
試験判定基準が満たされない場合、カメラは現在のプレビュー画像を保存せずに次のプレビュー画像を撮像し続ける。この処理は、シャッターボタンを完全に押下することによって最終の最大解像度画像I(x,y)を取得して保存するまで継続される。
複数のプレビュー画像を保存可能である場合、ユーザが最終の写真を撮影するまで、新たなプレビュー画像が時系列の先入れ先出し(FIFO)スタック上に置かれる。複数のプレビュー画像を記憶する理由は、最後の画像、またはいずれの単一の画像も、最終の最大解像度画像との比較用の最良の参照画像ではないかもしれないからである。複数の画像を記憶することによって、より良い参照画像を達成することができ、位置合せ段階においてプレビュー画像と最終撮像画像とのより接近した位置合せを達成することができる。複数の画像を撮像する他の理由は、単一の画像は動きのためにぼやけることがあり、焦点が定まらないことがあり、および/または露光が設定されないことがあるからである。
代替実施例では、複数の画像は、主要な最大解像度画像の前に撮像した画像であるプレビュー画像と、当該主要画像の後に撮像した画像であるポストビュー画像との組合せであり得る。1つの実施例では、複数のプレビュー画像は、より高い解像度を用いることによって、または複数の画像からの異なる領域の異なる部分を撮影することによって、単一のより高品質の参照画像を作成するのを助け得る。
セグメント化フィルタ90は、記憶した画像I(x,y)の前景および背景特徴を分析した後、当該画像をその前景/背景セグメント化情報99とともに、さらなる処理または表示のために転送する。フィルタ90はカメラ20と一体型であり得るか、デスクトップコンピュータ、ハンドヘルド装置、携帯電話ハンドセットまたはサーバなどの外部処理装置10の一部であり得る。本実施例では、セグメント化フィルタ90は、最大解像度画像記憶装置80から撮像画像I(x,y)を受信する。セグメント化フィルタ90はさらに、一時記憶部82から1つまたは複数のプレビュー画像P(x,y)を受信する。
撮像され、セグメント化され、および/またはさらに処理された画像I(x,y)は、画像ディスプレイ100に表示され、内部にあり得るかCFカード、SDカード、またはUSBドングルなどの取外し可能記憶装置であり得る永続記憶装置112に保存され得るか、有線もしくは無線であり得る画像出力構成要素110を介してパーソナルコンピュータ、サーバまたはプリンタなどの別の装置にダウンロードされ得る。セグメント化データ99はさらに、別ファイルとして画像ヘッダに記憶され得るか、この情報を画像操作のために用いる別の機能に転送され得る。
セグメント化フィルタ90がデスクトップコンピュータなどの別個の装置10内の外部アプリケーションにおいて実現される実施例では、82に一時的に記憶されるようなプレビュー画像の表現とともにブロック80に記憶される最終撮像画像I(x,y)は、修正前に記憶装置112に記憶され得るか、後でセグメント化フィルタ90によって処理されるように、画像出力構成要素110を介して外部装置10にともに転送され得る。スプライト画像とも称されるプレビュー画像または複数の画像は、圧縮率を向上させ、画像同士の間の冗長データを除去し、圧縮データを位置合せしたり色をつけるために、記憶前に前処理され得る。
例示的な方法
図2は、本発明の実施例に係る方法を示すフローチャートである。図1に示す画像取得装置20(本開示内容では「カメラ」と称されることもある)のセグメント化フィルタ90は、記憶画像I(x,y)の前景/背景セグメント化情報99を用いて、前景(FG)画素および背景(BG)画素を有する2値マップを生成し得る(ブロック210)。2値マップはたとえば、2値マップに対応する画像が前景画像を黒で示し、背景を白で示すように、背景画素に第1の値を割当て、前景画素に第2の値を割当て得る。2005年8月30日に出願された、「差分露光計算を用いたデジタル画像における前景/背景セグメント化(Foreground/Background Segmentation In Digital Images With Differential Exposure Calculations)」と題された米国特許出願公開第2006/0039690号は、その全文が引用によって本明細書に援用される。本発明の1つの実施例では、2値マップを改良して、デジタル画像の背景からの前景オブジェクトのセグメント化の品質を向上させる。
カメラの利用可能な特徴に依存して、記憶画像I(x,y)の配向を示す変数が記憶され得る(ブロック215)。記憶画像I(x,y)の配向は、当該画像が人物画像であるか風景画像であるかを識別し得る。したがって、配向は、画像のどの側が画像の頂部を構成し、どの側が画像の右側を構成するかなどを示す。カメラが上下逆さまである間は画像は撮像されなかったと仮定することができるため、配向は3つの考えられる配向(すなわち、カメラは撮像時に回転しなかった、カメラは右に90度回転した、またはカメラは左に90度回転した)から求めることができる。変数は、どのように配向を求めたかに依存して、確定配向(OrCert)または不確定配向(OrUncert)のいずれか一方を示し得る。たとえば、ユーザが画像配向を特定する場合、または画像取得装置が、撮像時の画像取得装置の回転を検出可能な動き検知技術を含む場合は、OrCertが記憶され得、当該配向が高い信頼度で正確であると思われることを示す。または、最高平均強度を有する画像の側が画像の頂部であると仮定することなどによって取得画像の分析から配向を求める場合は、OrUncertが記憶され得、当該配向が同一程度の精度を保証できない推定に基づいていることを示す。OrUncertの値が記憶される場合、配向を確かめるために、付加的な情報または顔検出アルゴリズムなどの付加的なアルゴリズムが用いられ得る。
画像の配向を求めた後、2値画像マップ上の前景画素群がラベル付けされ得、主要な前景オブジェクトを構成する群が識別され得る(ブロック220)。前景画素の各連続領域に、一意のラベルが与えられ得る。その後、ラベル付けされた領域はフィルタ処理され、どの連続領域が主要な前景オブジェクトを構成しているかが判断され得る。最大画素面積を有する前景画素の連続領域が主要な前景オブジェクトであるとして識別され得、最大画素面積を有しない前景画素の連続領域は主要な前景オブジェクトではないとして識別され得る。これらの小さいほうの領域が、背景画素に変換される。
いくつかの実施例では、最大画素面積を有する前景画素の連続領域は主要な前景オブジェクトであるとして自動的に識別されず、代わりにさらに分析され得る。たとえば、最大画素面積を有する前景画素の連続領域が、記憶した配向によって決定されるような画像の底部に接しない場合は、当該領域は、前景画素の2番目に大きい連続領域のために捨てられ得る(ブロック225、「no」の経路)。2番目に大きい領域が画像の底部に接する場合は、2番目に大きい領域が主要な前景オブジェクトであることが確かめられ得る(ブロック225、「yes」の経路)。画像の底部に接する領域が識別されるまで、さらなる領域が分析され続け得る。画像の底部に接する領域がない場合は、当該技術は終了する。
ラベル付けおよびフィルタ処理(ブロック220および225)の後、2値画像マップは主要な前景オブジェクトのみを含む。主要な前景オブジェクトを含む2値画像マップから、外接矩形に対応する境界の第1のセットが求められ得る(ブロック230)。境界の第1のセットの左側の境界は、前景オブジェクトの最左端の前景画素に対応し得る。境界の第1のセットの右側の境界は、主要な前景オブジェクトの最右端の前景画素に対応し得る。境界の第1のセットの上部境界は、主要な前景オブジェクトの最上部の前景画素に対応し得、下部境界は、典型的に画像の底縁となる、主要な前景の最下部の画素に対応し得る。図3aは、単一の前景オブジェクト(310)および境界の第1のセットに対応する外接矩形(320)を含む2値画像マップの例を示す。
主要な前景オブジェクトを識別し(ブロック220および225)、境界の第1のセットを求めた(ブロック230)後、主要な前景オブジェクトの穴が埋められ得る(ブロック235)。たとえば、衣服や別のオブジェクトなどの暗い無反射面によって、ある画素が、主要な前景オブジェクトを表しており、したがって2値画像マップ上で前景画素として識別されるべきであったとしても、背景画素として識別されてしまうことがある。図3aは、主要な前景オブジェクトの穴315の例を示す。図3bでは、穴が埋められている。
穴は、1つ以上の判定基準を満たす背景画素の領域を識別することによって識別され得る。たとえば、前景画素によって完全に囲まれており、かつ図3aの外接矩形320によって識別される境界の第1のセットのいずれにも接していない背景画素の連続領域はいずれも穴として識別され得る。穴として識別された背景画素群は、前景画素に変更され得る。変換すべきでない背景画素の領域を誤って変換することを避けるため、本発明の1つの実施例は、穴の構成割合が閾値面積量未満である場合、たとえば全画像面積の一定の割合未満、前景画素の全面積の一定の割合未満、または背景画素の全面積の一定の割合未満である場合にのみ、穴を前景画素に変換することを含む。一定の割合は、たとえば1.5パーセントと一般的に低く、たとえば撮像時に人物が自身の頭に触れることによって穴を形成するなどの状況に起因し得る大きな背景領域を変換するのを予防するために選択され得る。
穴を埋めた後、前景オブジェクトの頭領域を規定している可能性がある頭領域ボックスに対応する境界の第2のセットが規定され得る(ブロック240)。境界の第2のセットは、デジタル画像の配向、および外接矩形に対応する境界の第1のセットに基づいて規定され得る。たとえば、外接矩形の8分の1が頭ボックスの左にあり、外接矩形の8分の1が頭領域ボックスの右にあるように、頭ボックスの幅は外接矩形の幅の4分の3に規定され得、外接矩形の中央に位置合せされ得る。頭ボックスはさらに、外接矩形の高さの4分の1に規定され得、外接矩形の頂部に位置合せされ得る。または、頭ボックスの境界は、1つ以上の顔検出アルゴリズムによって求められる顔の推定位置に基づいて規定され得る。図3bは、頭ボックス330を有する2値画像マップの例を示す。
再帰的頂部検出および穴埋めモジュール(RCDFモジュール)が、頭ボックス330内の各行をパースして、各行がFG−BG−FGトリオを含むか否か判断することによって、頭ボックス330内の頂部を識別し得る(ブロック245)。FG−BG−FGトリオは、背景画素群の左に第1の前景画素群を有し、背景画素群の右に第2の前景画素群を有する、1本または複数の水平線である。RCDFモジュールは、頭領域ボックス330の最上行を分析して最上行がFG−BG−FGトリオを含むか否か判断し得、含まない場合は、RCDFは最上行から2番目の行を分析してその行がFG−BG−FGトリオを含むか否か判断し得る。この処理は、FG−BG−FGトリオを含む最上行からの最初の行が識別されるまで繰返され得る。FG−BG−FGトリオを含む最上行からの最初の行は、トリオ線340と称され得る。図3bは、トリオ線340を有する2値マップの例を示す。頭領域ボックス330内にトリオ線が見つからない場合は、アルゴリズムは終了し得る。
頭頂部ではない画像の部分を頭頂部として誤って識別することを避けるため、トリオ線340を識別する際にさらなるパラメータが用いられ得る。たとえば、RCDFモジュールは、FG画素の左および/または右の群が少なくとも5画素の幅であるFG−BG−FGトリオのみを見つけるように構成され得る。このような検索判定基準によって、RCDFモジュールが、たとえばほつれ毛などによって生じる画像内の細部を頂部を表しているとして識別することを防止することができる。また、RCDFは、BG画素群がたとえば50画素などの一定の幅よりも小さいFG−BG−FGトリオのみを識別するように構成され得る。このような判定基準によって、RCDFが、たとえば上げた手などの頭とは無関係のオブジェクトを頭頂部の始まりを表しているとして識別することを防止することができる。
トリオ線340を用いて、新たな対象ボックス(頂部ボックスとも称される)に対応する境界の第3のセットが識別され得、頂部ボックスの中に、背景領域が識別され得る(ブロック250)。頂部ボックスの左、右、および底部は、頭領域ボックス330の左、右、および底部と同じ境界に対応し得るが、頂部ボックスの上部はトリオ線340によって規定され得る。頂部ボックスの中で、一意の背景領域の各々に一意のラベルが割当てられ得る。図3bでは、これらのラベルはBG1,BG2およびBG3として示される。分析に基づいて、どの識別済のBG領域が頂部領域を表しており、どれが実際の背景を表しているかが求められ得る(ブロック255)。たとえば、BG1およびBG3などの頂部ボックスの側または底部に接するBG領域は実際の背景領域として識別され得るが、BG2などの頂部ボックスの側または底部に接していない1つまたは複数の領域は頂部領域として識別され得る。
いくつかの実施例では、図3bのBG2などの、頂部領域の一部である可能性があるとして識別される領域は、当該領域が実際の頂部領域を実際に表しているか否か確認するためのさらなる試験を受け得る(ブロック260)。たとえば、頂部領域の平均発光が、周囲の前景画像内の前景画素群の平均発光と比較され得る。この比較は、フラッシュを用いて得たグレースケール画像に対してなされ得る。画素が前景画素であるか背景画素であるかの決定は2値であり、フラッシュ画像と非フラッシュ画像との間の発光の変化が一定値よりも大きいか否かに基づく。したがって、頂部領域内の背景画素と隣接する前景画素との間の発光の差は、前景画素および実際の背景画素と比べると比較的小さくなると仮定することができる。
識別済の頂部領域がさらなる試験に通った場合は(ブロック260、yesの経路)、頂部領域を含む画素が背景画素から前景画素に変換され得る(ブロック265)。識別済の頂部領域がさらなる試験に通らなかった場合は(ブロック260、noの経路)、識別済の頂部領域は試験済の印を付けられ得、画素は背景画素から前景画素に変換されない。識別済の頂部領域がさらなる試験に通らなかったことに応答して(ブロック260、noの経路)、別のトリオ線が識別され得、処理が反復され得る(ブロック245,250,255および260)。
さらなる試験に通った識別済の頂部領域を穴埋めした後(ブロック260および265)、エッジ検出を用いて、穴埋めされた識別済の頂部領域の上方(すなわちトリオ線の上方)にあり得る頂部の頂点が識別され得る(ブロック270)。頂部の頂点の上方の領域は、対象領域350として識別され得る。図3cは、頂部領域が穴埋めされた図3bの画像を示す。図3cはさらに、対象領域350に対応するボックスを示す。対象領域350は、トリオ線340上方の予め定められた最大高さである線によって頂部の境界をつけられ得、対象領域350がFG−BG−FGトリオ内の最左端のFG画素によって左の境界をつけられ、FG−BG−FGトリオ内の最右端のFG画素によって右の境界をつけられるように、FG−BG−FGトリオの幅によって左右の境界をつけられ得る。
対象領域350の中に、始点が規定され得る。始点はたとえば、トリオ線340の1つ上の画素内に存在し得、対象領域350の左右両側から等距離であり得る。規定された始点から開始して、領域成長アルゴリズムが実行され得、対象領域の縁に達すると、またはエッジが求められると、成長は停止し得る。プレウィット(Prewitt)エッジ検出アルゴリズムなどの当該技術で公知の任意のエッジ検出アルゴリズムを用いて、頭部のエッジが求められ得る。
エッジ検出アルゴリズムによって求められたエッジの正確度が確認され得る。たとえば、検出されたエッジが対象領域350を越える場合は当該エッジは不正確であるとして識別され得、検出されたエッジが対象領域内にある場合は当該エッジは正確であるとして識別され得る。検出されたエッジが正確であると決定されたことに応答して、検出されたエッジによって境界をつけられる区域が前景マップに追加され得、検出されたエッジが正確でないと決定されたことに応答して、検出されたエッジによって境界をつけられる区域は前景マップに追加されない。
本発明の技術は、可能性のある誤った穴埋めを検出するための警告モジュールをさらに含み得る。誤った穴埋めの検出は、撮像画像に関連付けられるメタデータとして記憶され得、頂部の穴埋めが行なわれたことをユーザに知らせるために用いられ得る。ユーザに知らせるメッセージは、画像取得直後に画像取得装置上でユーザに与えられ得るか、たとえばパーソナルコンピュータ上で起こり得る取得後の処理時にユーザに与えられ得る。または、カメラは、可能性のある誤った穴埋めが検出された場合、頂部が穴埋めされた画像ではなく、変更されていない画像をユーザに提示するようにプログラムされ得る。
このような警告は、穴埋めが行なわれるたびに、または一定の状況下でのみ、ユーザに提示され得る。たとえば、警告モジュールは、オブジェクトの面積に対するオブジェクトの周囲の比率が一定値よりも大きい場合にのみユーザに警告を与え得る。低い周囲−面積比率は、誤った穴埋めに起因し得る、当該オブジェクトに対する細部の欠如を示している場合がある。
図4は、図2の方法のさまざまな段階における2値画像マップのグラフィック例を示す。図4aは、頂部を有する単一の前景オブジェクトを示す。図4aはたとえば、図2のブロック235に示した穴埋め後の2値画像マップの表現であり得る。図4bは図4aと同じであるが、頂部が穴埋めされた画像を示す。図4bはたとえば、図2のブロック265の頂部穴埋め後の2値画像マップの表現であり得る。図4cは図4bと同じであるが、さらなる背景がいくらか加えられた画像を示す。
単一の頂部領域を有する単一の前景オブジェクトを有する画像を用いて本発明の局面を説明したが、本発明の技術は、単一の前景オブジェクト内の複数の頂部領域の検出および穴埋め、または2つ以上の前景オブジェクト内の1つ以上の頂部領域の検出および穴埋めを含むように拡張可能であることが明らかであるべきである。
本発明の実施例は、あるシーンのデジタル画像の前景領域と背景領域とを区別する方法を含み、当該方法は、(a)1つ以上の前景オブジェクトを含む2値画像マップ内に主要な前景オブジェクトを識別するステップと、(b)主要な前景オブジェクトの頭領域を分析してトリオ線を識別するステップとを含み、トリオ線は、背景画素群の左に1つ以上の前景画素の第1の群、および背景画素群の右に1つ以上の前景画素の第2の群を含み、当該方法はさらに、(c)トリオ線に少なくとも一部基づいて、2値画像マップの頂部領域を識別するステップと、(d)2値画像マップの頂部領域内の背景画素を前景画素に変換するステップとを含む。
本発明の実施例は、あるシーンのデジタル画像の前景領域と背景領域とを区別する方法を含み、当該方法は、(a)前景(FG)画素および背景(BG)画素を識別するセグメント化画像を記憶するステップと、(b)セグメント化画像の配向を求めるステップと、(c)連続した前景画素の1つ以上の群を画像内に識別するステップと、(d)連続した前景画素の1つ以上の群から、候補の主要な前景オブジェクトを識別するステップと、(e)候補の主要な前景オブジェクトに対してさらなる分析を行なって、候補の主要な前景オブジェクトが主要な前景オブジェクトであるか否か判断するステップと、(f)主要な前景オブジェクトに少なくとも一部基づいて、境界の第1のセットを求めるステップとを含み、境界の第1のセットは、主要な前景オブジェクトの最左端画素、主要な前景オブジェクトの最右端画素、主要な前景オブジェクトの最上部画素、および主要な前景オブジェクトの最下部画素を含み、当該方法はさらに、(g)主要な前景オブジェクトの穴を埋めるステップと、(h)境界の第1のセットに少なくとも一部基づいて、主要な前景オブジェクト内の頭である可能性がある領域に対応する境界の第2のセットを求めるステップと、(i)境界の第2のセット内にFG−BG−FGトリオを識別するステップと、(j)境界の第2のセットおよび識別済のFG−BG−FGトリオに少なくとも一部基づいて、境界の第3のセットを求めるステップと、(k)境界の第3のセット内に、連続した背景画素の1つ以上の群を識別するステップと、(l)連続した背景画素の1つ以上の群から、候補の頂部領域を識別するステップと、(m)候補の頂部領域に対してさらなる分析を行なって、候補の頂部領域が実際の頂部領域であるか否か判断するステップと、(n)頂部領域内の背景画素を前景画素に変換するステップと、(o)エッジ検出アルゴリズムを実行するステップとを含み、エッジ検出アルゴリズムの始点は、FG−BG−FGトリオに少なくとも一部基づいて決定される。
本発明の実施例はさらに、本願に記載の方法の1つ以上のステップを実行するための手段を含む、写真フィルムを有しないデジタル画像取得システムを含む。本発明の代替実施例は、1つ以上のコンピュータ機器によって実行されると、本願に記載の方法の1つ以上のステップを実行させる命令を記憶する、1つ以上の機械読取可能記憶媒体を含む。
ハードウェア概要
1つの実施例によると、本明細書に記載の技術は1つ以上の特定目的コンピュータ機器によって実現される。特定目的コンピュータ機器は、図1に示すデジタル画像取得装置に組込まれ得るか、図1に示すデジタル画像取得装置とは別個であり得る。
特定目的コンピュータ機器は、当該技術を実行するために結線で接続され得るか、当該技術を実行するように永続的にプログラムされた1つ以上の特定用途向け集積回路(ASIC)もしくはフィールドプログラマブルゲートアレイ(FPGA)などのデジタル電子装置を含み得るか、ファームウェア、メモリ、他の記憶装置、もしくは組合せ内のプログラム命令に従って当該技術を実行するようにプログラムされた1つ以上の汎用ハードウェアプロセッサを含み得る。そのような特定目的コンピュータ機器はさらに、カスタム結線接続ロジック、ASIC、またはFPGAをカスタムプログラミングと組合わせて当該技術を達成し得る。特定目的コンピュータ機器は、デスクトップコンピュータシステム、携帯型コンピュータシステム、ハンドヘルド装置、ネットワーキング装置、または当該技術を実現するための結線接続および/もしくはプログラムロジックを組込んだ任意の他の装置であり得る。
たとえば、図5は、本発明の実施例が実現され得るコンピュータシステム500を示すブロック図である。コンピュータシステム500は、情報を通信するためのバス502または他の通信メカニズムと、バス502に結合されて情報を処理するためのハードウェアプロセッサ504とを含む。ハードウェアプロセッサ504は、たとえば汎用マイクロプロセッサであり得る。
コンピュータシステム500はさらに、バス502に結合されて、プロセッサ504によって実行される情報および命令を記憶するための、ランダムアクセスメモリ(RAM)または他の動的記憶装置などのメインメモリ506を含む。メインメモリ506は、プロセッサ504によって実行される命令の実行中に一時的な変数または他の中間情報を記憶するためにも用いられ得る。そのような命令は、プロセッサ504にとってアクセス可能な記憶媒体に記憶されると、コンピュータシステム500を、命令に規定されている動作を実行するようにカスタム化された特定目的機械にする。
コンピュータシステム500はさらに、バス502に結合されて、プロセッサ504のための静的情報および命令を記憶するための読出専用メモリ(ROM)508または他の静的記憶装置を含む。磁気ディスクまたは光ディスクなどの記憶装置510が提供され、バス502に結合されて情報および命令を記憶する。
コンピュータシステム500はバス502を介して、コンピュータユーザに情報を表示するための陰極線管(CRT)などのディスプレイ512に結合され得る。英数字キーおよび他のキーを含む入力装置514がバス502に結合されて、情報および指令選択をプロセッサ504に通信する。別の種類のユーザ入力装置は、方向情報および指令選択をプロセッサ504に通信するため、ならびにディスプレイ512上のカーソルの動きを制御するためのマウス、トラックボール、またはカーソル方向キーなどのカーソル制御部516である。この入力装置は典型的に、当該装置が平面上の位置を特定することを可能にする、第1の軸(たとえばx)および第2の軸(たとえばy)の2つの軸における二自由度を有する。
コンピュータシステム500は、当該コンピュータシステムと組合されて、コンピュータシステム500を特定目的機械にするかプログラムする、カスタム化された結線接続ロジック、1つ以上のASICもしくはFPGA、ファームウェアおよび/またはプログラムロジックを用いて、本明細書に記載の技術を実現し得る。1つの実施例によると、本明細書中の技術は、プロセッサ504がメインメモリ506に含まれる1つ以上の命令の1つ以上のシーケンスを実行することに応答して、コンピュータシステム500によって実行される。そのような命令は、記憶装置510などの別の記憶媒体からメインメモリ506に読出され得る。メインメモリ506に含まれる命令のシーケンスの実行によって、プロセッサ504が当該明細書に記載の処理ステップを実行する。代替実施例では、結線接続された回路構成がソフトウェア命令の代わりに、またはソフトウェア命令と組合せて用いられ得る。
本明細書中に用いられる「記憶媒体」という用語は、機械を特定の態様で動作させるデータおよび/または命令を記憶する任意の媒体を指す。そのような記憶媒体は、不揮発性媒体および/または揮発性媒体を含み得る。不揮発性媒体は、たとえば、記憶装置510などの光ディスクまたは磁気ディスクを含む。揮発性媒体は、メインメモリ506などのダイナミックメモリを含む。記憶媒体の一般形態は、たとえば、フロッピィディスク、フレキシブルディスク、ハードディスク、固体ドライブ、磁気テープ、または任意の他の磁気データ記憶媒体、CD−ROM、任意の他の光データ記憶媒体、穴のパターンを有する任意の物理媒体、RAM、PROM、およびEPROM、FLASH−EPROM、NVRAM、任意の他のメモリチップもしくはカートリッジを含む。
記憶媒体は、伝送媒体とは別個であるが、伝送媒体とともに用いられ得る。伝送媒体は、記憶媒体同士の間の情報の伝送に加担する。たとえば、伝送媒体は、バス502を含むワイヤを含む同軸ケーブル、銅線および光ファイバを含む。伝送媒体はさらに、電波および赤外線データ通信時に発生するような音波または光波の形態を取り得る。
1つ以上の命令の1つ以上のシーケンスを実行するためにプロセッサ504に搬送する際に、さまざまな形態の媒体が含まれ得る。たとえば、命令は当初、リモートコンピュータの磁気ディスクまたは固体ドライブ上に搬送され得る。リモートコンピュータは当該命令を自身のダイナミックメモリにロードし得、当該命令をモデムを使って電話回線で送信し得る。コンピュータシステム500に局所的なモデムは電話回線上のデータを受信し得、赤外線送信機を用いて当該データを赤外線信号に変換し得る。赤外線検出器が当該赤外線信号内に搬送される当該データを受信し得、適切な回路構成が当該データをバス502上に置き得る。バス502は当該データをメインメモリ506に搬送し、そこからプロセッサ504が命令を取出して実行する。メインメモリ506が受信する命令は任意に、プロセッサ504による実行前または実行後に記憶装置510に記憶され得る。
コンピュータシステム500はさらに、バス502に結合された通信インターフェイス518を含む。通信インターフェイス518は、ローカルネットワーク522に接続されたネットワークリンク520に双方向のデータ通信結合を提供する。たとえば、通信インターフェイス518は、統合サービスデジタル網(ISDN)カード、ケーブルモデム、衛星モデム、または対応する種類の電話回線にデータ通信接続を提供するためのモデムであり得る。別の例として、通信インターフェイス518は、適合LANにデータ通信接続を提供するためのローカルエリアネットワーク(LAN)カードであり得る。無線リンクも実現可能である。いずれのそのような実現例においても、通信インターフェイス518は、さまざまな種類の情報を表すデジタルデータストリームを搬送する電気、電磁または光信号を送受信する。
ネットワークリンク520は典型的に、1つ以上のネットワークを介してデータ通信を他のデータ装置に提供する。たとえば、ネットワークリンク520は、ローカルネットワーク522を介して、ホストコンピュータ524またはインターネットサービスプロバイダ(ISP)526によって動作するデータ設備への接続を提供し得る。ISP526は次に、現在では「インターネット」528と一般に称されるワールドワイドパケットデータ通信ネットワークを介してデータ通信サービスを提供する。ローカルネットワーク522およびインターネット528は両方とも、デジタルデータストリームを搬送する電気、電磁または光信号を用いる。コンピュータシステム500とデジタル信号を授受する、さまざまなネットワークを介した信号、およびネットワークリンク520上の通信インターフェイス518を介した信号は、伝送媒体の例示的な形態である。
コンピュータシステム500は、ネットワーク、ネットワークリンク520および通信インターフェイス518を介して、プログラムコードを含むメッセージを送信可能であり、プログラムコードを含むデータを受信可能である。インターネットの例では、サーバ530は、インターネット528、ISP526、ローカルネットワーク522および通信インターフェイス518を介して、アプリケーションプログラム用の要求コードを送信し得る。
受信したコードはプロセッサ504によって受信した状態で実行され得、および/または後で実行するために記憶装置510もしくは他の不揮発性記憶装置に記憶され得る。
拡張および代替例
本説明では、一定の処理ステップが特定の順序で述べられ、一定のステップを識別するためにアルファベットおよび英数字のラベルが用いられ得る。本説明中に特に記載のない限り、本発明の実施例はそのようなステップを実行するいずれの特定の順序にも限定されるとは限らない。特に、ラベルはステップを便利に識別するために用いているに過ぎず、そのようなステップを実行する特定の順序を特定または必要とすることを意図していない。
上記の明細書では、実現例ごとに異なり得る多数の特定的な詳細を参照して本発明の実施例を説明した。したがって、発明であるもの、および出願人によって発明であると意図される唯一の排他的な指標は、本出願から生じる請求項の組であり、すべてのその後の訂正を含む、当該請求項が生じる特定的な形態にある請求項の組である。そのような請求項に含まれる用語について本明細書中に明示したいずれの定義も、請求項中で用いられるような用語の意味を支配するものとする。したがって、請求項中に明示していない限定、要素、特性、特徴、利点または属性のいずれも、そのような請求項の範囲をいずれの意味でも限定すべきでない。したがって、明細書および図面は、限定的ではなく例示的に見なされるものとする。

Claims (31)

  1. 記憶装置から、第1の照明量で撮像したシーンの第1の画像を読出すステップと、
    前記記憶装置から、前記第1の照明量とは異なる第2の照明量で撮像した前記シーンの第2の画像を読出すステップと、
    前記第1の画像と前記第2の画像との比較に基づいて、前記シーンの前景部と前記シーンの背景部を区別するステップと、
    前記シーンの中に、人物の頭部の頂部を含む頂部領域を識別するステップと、
    前記前景部ではなく前記背景部に属するとして誤って識別された前記頂部領域の部分を識別するステップと、
    誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを備え、
    前記ステップは自動式装置によって実行される、方法。
  2. 前記頂部領域を識別するステップは、
    前記背景部の最大隣接領域を識別することによって、主要な前景オブジェクトを識別するステップと、
    前記主要な前景オブジェクトの外部の前記前景部のすべての部分を、前記前景部ではなく前記背景部に属すると再び特徴付けるステップとを含む、請求項1に記載の方法。
  3. 前記頂部領域を識別するステップは、
    前記前景部の最大隣接領域を識別するステップと、
    前記最大隣接領域が、前記第1の画像または前記第2の画像のいずれか一方である特定的な画像の底部と接触しているか否か判断するステップと、
    前記最大隣接領域が前記特定的な画像の前記底部と接触していないという判断に応答して、前記前景部の中に、主要な前景オブジェクトとして、(a)前記最大隣接領域ほど大きくなく、(b)前記特定的な画像の前記底部と接触している、2番目に大きい隣接領域を識別するステップと、
    前記主要な前景オブジェクトの外部の前記前景部のすべての部分を、前記前景部ではなく前記背景部に属すると再び特徴付けるステップとを含む、請求項1に記載の方法。
  4. 前記頂部領域を識別するステップは、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が前記矩形のいずれの部分とも接触していないという判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項1に記載の方法。
  5. 前記頂部領域を識別するステップは、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が特定の区域の特定の割合未満を占めるか否か判断するステップと、
    (a)前記サブ領域が前記矩形のいずれの部分とも接触しておらず、(b)前記サブ領域が前記特定の区域の特定の割合未満を占める、という判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項1に記載の方法。
  6. 前記頂部領域を識別するステップは、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    前記主要な前景オブジェクトの最上、最下、最左および最右の範囲と接触する側を有する外接矩形を識別するステップと、
    前記外接矩形の中に、(a)前記外接矩形の幅の特定の分数である幅、および(b)前記外接矩形の高さの特定の分数である高さ、を有すると規定される頭ボックスを識別するステップとを含む、請求項1に記載の方法。
  7. 前記頂部領域を識別するステップは、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    顔検出アルゴリズムに少なくとも一部基づいて、前記主要な前景オブジェクトの顔領域を識別するステップと、
    前記顔領域の最上、最下、最左および最右の範囲と接触するエッジを有する頭ボックスを識別するステップとを含む、請求項1に記載の方法。
  8. 前記頂部領域を識別するステップは、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記頂部ボックスのいずれの側にも接しない、1つ以上のサブ領域を識別するステップと、
    前記1つ以上のサブ領域の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項1に記載の方法。
  9. 前記頂部領域を識別するステップは、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記第1の画像と前記第2の画像との間で発光が特定の量よりも多く変化する、1つ以上の画素を識別するステップと、
    前記1つ以上の画素の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項1〜8のいずれかに記載の方法。
  10. 誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けた後、前記記憶装置に、前記シーンから前記背景部が省略された第3の画像を記憶するステップをさらに備える、請求項1〜9のいずれかに記載の方法。
  11. 揮発性または不揮発性コンピュータ読取可能記憶媒体であって、1つ以上のプロセッサによって実行されると、前記プロセッサに、
    記憶装置から、第1の照明量で撮像したシーンの第1の画像を読出すステップと、
    前記記憶装置から、前記第1の照明量とは異なる第2の照明量で撮像した前記シーンの第2の画像を読出すステップと、
    前記第1の画像と前記第2の画像との比較に基づいて、前記シーンの前景部と前記シーンの背景部を区別するステップと、
    前記シーンの中に、人物の頭部の頂部を含む頂部領域を識別するステップと、
    前記前景部ではなく前記背景部に属するとして誤って識別された前記頂部領域の部分を識別するステップと、
    誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを実行させる命令を記憶している、コンピュータ読取可能記憶媒体。
  12. 前記頂部領域を識別するステップは、
    前記背景部の最大隣接領域を識別することによって、主要な前景オブジェクトを識別するステップと、
    前記主要な前景オブジェクトの外部の前記前景部のすべての部分を、前記前景部ではなく前記背景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  13. 前記頂部領域を識別するステップは、
    前記前景部の最大隣接領域を識別するステップと、
    前記最大隣接領域が、前記第1の画像または前記第2の画像のいずれか一方である特定的な画像の底部と接触しているか否か判断するステップと、
    前記最大隣接領域が前記特定的な画像の前記底部と接触していないという判断に応答して、前記前景部の中に、主要な前景オブジェクトとして、(a)前記最大隣接領域ほど大きくなく、(b)前記特定的な画像の前記底部と接触している、2番目に大きい隣接領域を識別するステップと、
    前記主要な前景オブジェクトの外部の前記前景部のすべての部分を、前記前景部ではなく前記背景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  14. 前記頂部領域を識別するステップは、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が前記矩形のいずれの部分とも接触していないという判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  15. 前記頂部領域を識別するステップは、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が特定の区域の特定の割合未満を占めるか否か判断するステップと、
    (a)前記サブ領域が前記矩形のいずれの部分とも接触しておらず、(b)前記サブ領域が前記特定の区域の特定の割合未満を占める、という判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  16. 前記頂部領域を識別するステップは、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    前記主要な前景オブジェクトの最上、最下、最左および最右の範囲と接触する側を有する外接矩形を識別するステップと、
    前記外接矩形の中に、(a)前記外接矩形の幅の特定の分数である幅、および(b)前記外接矩形の高さの特定の分数である高さ、を有すると規定される頭ボックスを識別するステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  17. 前記頂部領域を識別するステップは、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    顔検出アルゴリズムに少なくとも一部基づいて、前記主要な前景オブジェクトの顔領域を識別するステップと、
    前記顔領域の最上、最下、最左および最右の範囲と接触するエッジを有する頭ボックスを識別するステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  18. 前記頂部領域を識別するステップは、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記頂部ボックスのいずれの側にも接しない、1つ以上のサブ領域を識別するステップと、
    前記1つ以上のサブ領域の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  19. 前記頂部領域を識別するステップは、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記第1の画像と前記第2の画像との間で発光が特定の量よりも多く変化する、1つ以上の画素を識別するステップと、
    前記1つ以上の画素の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項11に記載のコンピュータ読取可能記憶媒体。
  20. 誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けた後、前記記憶装置に、前記シーンから前記背景部が省略された第3の画像を記憶するステップをさらに備える、請求項11〜19のいずれかに記載のコンピュータ読取可能記憶媒体。
  21. (a)第1の照明量でシーンの第1の画像を撮像し、(b)前記第1の照明量とは異なる第2の照明量で前記シーンの第2の画像を撮像する撮像モジュールと、
    前記第1の画像と前記第2の画像との比較に基づいて、前記シーンの前景部と前記シーンの背景部を区別する前景識別モジュールと、
    (a)前記シーンの中に、人物の頭部の頂部を含む頂部領域を識別し、(b)前記前景部ではなく前記背景部に属するとして誤って識別された前記頂部領域の部分を識別し、(c)誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付ける、頂部識別モジュールとを備える、デジタルカメラ。
  22. 前記頂部領域の識別は、
    前記前景部の最大隣接領域を識別するステップと、
    前記最大隣接領域が、前記第1の画像または前記第2の画像のいずれか一方である特定的な画像の底部と接触しているか否か判断するステップと、
    前記最大隣接領域が前記特定的な画像の前記底部と接触していないという判断に応答して、前記前景部の中に、主要な前景オブジェクトとして、(a)前記最大隣接領域ほど大きくなく、(b)前記特定的な画像の前記底部と接触している、2番目に大きい隣接領域を識別するステップと、
    前記主要な前景オブジェクトの外部の前記前景部のすべての部分を、前記前景部ではなく前記背景部に属すると再び特徴付けるステップとを含む、請求項21に記載のデジタルカメラ。
  23. 前記頂部領域の識別は、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が前記矩形のいずれの部分とも接触していないという判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項21に記載のデジタルカメラ。
  24. 前記頂部領域の識別は、
    前記前景部によって完全に囲まれている前記背景部のサブ領域を識別するステップと、
    前記サブ領域が、前記前景部の少なくとも一部を含む区域の境界をつける矩形のいずれかの部分と接触しているか否か判断するステップと、
    前記サブ領域が特定の区域の特定の割合未満を占めるか否か判断するステップと、
    (a)前記サブ領域が前記矩形のいずれの部分とも接触しておらず、(b)前記サブ領域が前記特定の区域の特定の割合未満を占める、という判断に応答して、前記サブ領域のすべての部分を前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項21に記載のデジタルカメラ。
  25. 前記頂部領域の識別は、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    前記主要な前景オブジェクトの最上、最下、最左および最右の範囲と接触する側を有する外接矩形を識別するステップと、
    前記外接矩形の中に、(a)前記外接矩形の幅の特定の分数である幅、および(b)前記外接矩形の高さの特定の分数である高さ、を有すると規定される頭ボックスを識別するステップとを含む、請求項21に記載のデジタルカメラ。
  26. 前記頂部領域の識別は、
    主要な前景オブジェクトが前記前景部の最大隣接領域であることに少なくとも一部基づいて、前記前景部の中の前記主要な前景オブジェクトを識別するステップと、
    顔検出アルゴリズムに少なくとも一部基づいて、前記主要な前景オブジェクトの顔領域を識別するステップと、
    前記顔領域の最上、最下、最左および最右の範囲と接触するエッジを有する頭ボックスを識別するステップとを含む、請求項21に記載のデジタルカメラ。
  27. 前記頂部領域の識別は、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記頂部ボックスのいずれの側にも接しない、1つ以上のサブ領域を識別するステップと、
    前記1つ以上のサブ領域の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項21に記載のデジタルカメラ。
  28. 前記頂部領域の識別は、
    前記人物の頭の境界をつける頭ボックスを識別するステップと、
    前記頭ボックスの中に、前記前景部からの画素、その後に前記背景部からの画素、その後に前記前景部からの画素を含む最上の画素行であるトリオ線の場所を特定するステップと、
    (a)前記頭ボックスの最左、最右、および最下の側である最左、最右、および最下の側を有し、(b)前記トリオ線である最上の側を有する、頂部ボックスを識別するステップと、
    前記頂部ボックスの中に、(a)前記背景部に属し、(b)前記第1の画像と前記第2の画像との間で発光が特定の量よりも多く変化する、1つ以上の画素を識別するステップと、
    前記1つ以上の画素の各々を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを含む、請求項21に記載のデジタルカメラ。
  29. 前記頂部識別モジュールは、誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けた後、前記記憶装置に、前記シーンから前記背景部が省略された第3の画像を記憶する、請求項21〜28のいずれかに記載のデジタルカメラ。
  30. 請求項1に記載の方法のステップを実行するためのコンピュータ実行可能命令を備える、コンピュータプログラム。
  31. 記憶装置から、第1の照明量で撮像したシーンの第1の画像を読出すステップと、
    前記記憶装置から、前記第1の照明量とは異なる第2の照明量で撮像した前記シーンの第2の画像を読出すステップと、
    前記第1の画像と前記第2の画像との比較に基づいて、前記シーンの前景部と前記シーンの背景部を区別するステップと、
    前記シーンの中に、人物の頭部の頂部を含む頂部領域を識別するステップと、
    前記前景部ではなく前記背景部に属するとして誤って識別された前記頂部領域の部分を識別するステップと、
    誤って識別された前記頂部領域の前記部分を、前記背景部ではなく前記前景部に属すると再び特徴付けるステップとを備え、
    前記ステップは自動式装置によって実行される、コンピュータ実行方法。
JP2012512405A 2009-05-29 2010-05-28 背景から前景の頭頂部を分離するための方法および装置 Active JP5456159B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US18262509P 2009-05-29 2009-05-29
US61/182,625 2009-05-29
PCT/EP2010/057492 WO2010136593A2 (en) 2009-05-29 2010-05-28 Methods and apparatuses for foreground, top-of-the-head separation from background

Publications (2)

Publication Number Publication Date
JP2012528506A true JP2012528506A (ja) 2012-11-12
JP5456159B2 JP5456159B2 (ja) 2014-03-26

Family

ID=42340576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512405A Active JP5456159B2 (ja) 2009-05-29 2010-05-28 背景から前景の頭頂部を分離するための方法および装置

Country Status (3)

Country Link
US (1) US8633999B2 (ja)
JP (1) JP5456159B2 (ja)
WO (1) WO2010136593A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US20110216157A1 (en) 2010-03-05 2011-09-08 Tessera Technologies Ireland Limited Object Detection and Rendering for Wide Field of View (WFOV) Image Acquisition Systems
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
US8896703B2 (en) 2011-03-31 2014-11-25 Fotonation Limited Superresolution enhancment of peripheral regions in nonlinear lens geometries
US8982180B2 (en) 2011-03-31 2015-03-17 Fotonation Limited Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
US8860816B2 (en) 2011-03-31 2014-10-14 Fotonation Limited Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8913005B2 (en) 2011-04-08 2014-12-16 Fotonation Limited Methods and systems for ergonomic feedback using an image analysis module
US20130235223A1 (en) * 2012-03-09 2013-09-12 Minwoo Park Composite video sequence with inserted facial region
JP6032921B2 (ja) * 2012-03-30 2016-11-30 キヤノン株式会社 物体検出装置及びその方法、プログラム
US20150186341A1 (en) * 2013-12-26 2015-07-02 Joao Redol Automated unobtrusive scene sensitive information dynamic insertion into web-page image
US10110792B2 (en) 2015-04-24 2018-10-23 Lifetouch Inc. Background replacement system and methods involving multiple captured images
US10643101B2 (en) * 2015-07-09 2020-05-05 Texas Instruments Incorporated Window grouping and tracking for fast object detection
CN106851063A (zh) * 2017-02-27 2017-06-13 努比亚技术有限公司 一种基于双摄像头的曝光调节终端及方法
CN109784164B (zh) * 2018-12-12 2020-11-06 北京达佳互联信息技术有限公司 前景识别方法、装置、电子设备及存储介质
JP7195135B2 (ja) * 2018-12-21 2022-12-23 キヤノン株式会社 画像処理装置、画像処理装置が行う制御方法およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111041A (ja) * 2001-09-28 2003-04-11 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US20030184671A1 (en) * 2002-03-28 2003-10-02 Robins Mark N. Glare reduction system for image capture devices
JP2004005694A (ja) * 2002-05-29 2004-01-08 Eastman Kodak Co 画像処理方法、デジタル画像プロセッサ、デジタルカメラ、デジタル写真仕上げシステム及びプログラム
JP2005078158A (ja) * 2003-08-28 2005-03-24 Dainippon Printing Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体
JP2005165984A (ja) * 2003-12-05 2005-06-23 Seiko Epson Corp 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
JP2005208760A (ja) * 2004-01-20 2005-08-04 Fujitsu Ltd 人物画像抽出装置、及びコンピュータプログラム
WO2006095860A1 (ja) * 2005-03-10 2006-09-14 Fuji Photo Film Co., Ltd. 背景置換装置、背景置換プログラム、および背景置換方法
US20070263119A1 (en) * 2006-05-15 2007-11-15 Microsoft Corporation Object matting using flash and no-flash images

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4299464A (en) 1980-08-04 1981-11-10 Eastman Kodak Company Method and apparatus for reducing the incidence of eye closures during photographing of a human subject
JPS5870217A (ja) 1981-10-23 1983-04-26 Fuji Photo Film Co Ltd カメラブレ検出装置
US5432863A (en) 1993-07-19 1995-07-11 Eastman Kodak Company Automated detection and correction of eye color defects due to flash illumination
US5572596A (en) 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
JP3426060B2 (ja) 1995-07-28 2003-07-14 三菱電機株式会社 顔画像処理装置
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
JP3512992B2 (ja) 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6335990B1 (en) 1997-07-03 2002-01-01 Cisco Technology, Inc. System and method for spatial temporal-filtering for improving compressed digital video
US6407777B1 (en) 1997-10-09 2002-06-18 Deluca Michael Joseph Red-eye filter method and apparatus
US7352394B1 (en) 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US6246790B1 (en) 1997-12-29 2001-06-12 Cornell Research Foundation, Inc. Image indexing using color correlograms
US6278491B1 (en) 1998-01-29 2001-08-21 Hewlett-Packard Company Apparatus and a method for automatically detecting and reducing red-eye in a digital image
AUPP400998A0 (en) 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP3556859B2 (ja) 1998-09-08 2004-08-25 富士写真フイルム株式会社 画像補正方法、画像補正装置及び記録媒体
US6198505B1 (en) 1999-07-19 2001-03-06 Lockheed Martin Corp. High resolution, high speed digital camera
EP1085366B1 (en) 1999-09-14 2004-09-15 Kabushiki Kaisha Toshiba Face image photographing apparatus and face image photographing method
JP2001298659A (ja) 2000-02-08 2001-10-26 Canon Inc 撮像装置、画像処理システム、撮像方法、及び記憶媒体
US6940545B1 (en) 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4443722B2 (ja) 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
CA2309002A1 (en) 2000-05-23 2001-11-23 Jonathan Martin Shekter Digital film grain reduction
US6747690B2 (en) 2000-07-11 2004-06-08 Phase One A/S Digital camera with integrated accelerometers
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US6823086B1 (en) 2000-08-29 2004-11-23 Analogic Corporation Adaptive spatial filter
JP2002077591A (ja) 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US6895112B2 (en) 2001-02-13 2005-05-17 Microsoft Corporation Red-eye detection based on red region detection with eye confirmation
US6895104B2 (en) 2001-02-16 2005-05-17 Sac Technologies, Inc. Image identification system
US7072525B1 (en) 2001-02-16 2006-07-04 Yesvideo, Inc. Adaptive filtering of visual image using auxiliary image information
US7103200B2 (en) 2001-03-05 2006-09-05 Robert Hillhouse Method and system for adaptively varying templates to accommodate changes in biometric information
GB0110748D0 (en) 2001-05-02 2001-06-27 Apical Ltd Image enhancement methods and apparatus therefor
JP3624859B2 (ja) 2001-06-19 2005-03-02 カシオ計算機株式会社 撮像装置、ソフトフォーカス画像撮影方法
EP1293933A1 (de) 2001-09-03 2003-03-19 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
US7298412B2 (en) 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7133070B2 (en) 2001-09-20 2006-11-07 Eastman Kodak Company System and method for deciding when to correct image-specific defects based on camera, scene, display and demographic data
US7324246B2 (en) 2001-09-27 2008-01-29 Fujifilm Corporation Apparatus and method for image processing
JP2003179807A (ja) 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd 撮像装置
US6993185B2 (en) 2002-08-30 2006-01-31 Matsushita Electric Industrial Co., Ltd. Method of texture-based color document segmentation
WO2004055715A1 (en) 2002-12-13 2004-07-01 Koninklijke Philips Electronics N.V. Expression invariant face recognition
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7274822B2 (en) 2003-06-30 2007-09-25 Microsoft Corporation Face annotation for photo management
US7409083B2 (en) 2003-07-18 2008-08-05 Canon Kabushiki Kaisha Image processing method and apparatus
US7469072B2 (en) 2003-07-18 2008-12-23 Canon Kabushiki Kaisha Image processing apparatus and method
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US20100053367A1 (en) 2003-08-05 2010-03-04 Fotonation Ireland Limited Partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US20050140801A1 (en) 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
JP2005164475A (ja) 2003-12-04 2005-06-23 Mitsutoyo Corp 真直度測定装置
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US20110102643A1 (en) 2004-02-04 2011-05-05 Tessera Technologies Ireland Limited Partial Face Detector Red-Eye Filter Method and Apparatus
US7995239B2 (en) 2004-03-29 2011-08-09 Fujifilm Corporation Image output apparatus, method and program
WO2006078265A2 (en) 2004-03-30 2006-07-27 Geometrix Efficient classification of three dimensional face models for human identification and other applications
US8111889B2 (en) 2004-03-31 2012-02-07 General Electric Company Method and apparatus for efficient calculation and use of reconstructed pixel variance in tomography images
US7356174B2 (en) 2004-05-07 2008-04-08 General Electric Company Contraband detection system and method using variance data
KR100579883B1 (ko) 2004-05-21 2006-05-15 삼성전자주식회사 노이즈처리가 가능한 감마보정장치 및 감마보정방법
JP2006072770A (ja) 2004-09-02 2006-03-16 Sanyo Electric Co Ltd 顔検出装置および顔向き推定装置
US7403654B2 (en) 2004-10-04 2008-07-22 Arcsoft, Inc. Enhanced automatic red eye removal
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7835571B2 (en) 2005-03-10 2010-11-16 Fujifilm Corporation Background replacing apparatus, background replacing program, and background replacing method
US20060204052A1 (en) 2005-03-11 2006-09-14 Fuji Photo Film Co., Ltd. Method, apparatus, and program for detecting red eye
US20070189609A1 (en) 2005-03-31 2007-08-16 Fuji Photo Film Co., Ltd. Method, apparatus, and program for discriminating faces
JP4519708B2 (ja) 2005-05-11 2010-08-04 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP2006318103A (ja) 2005-05-11 2006-11-24 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP4906034B2 (ja) 2005-05-16 2012-03-28 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP2006350498A (ja) 2005-06-14 2006-12-28 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
JP2007006182A (ja) 2005-06-24 2007-01-11 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
DE602006009191D1 (de) 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP4708909B2 (ja) 2005-08-09 2011-06-22 富士フイルム株式会社 デジタル画像の対象物検出方法および装置並びにプログラム
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
US7567707B2 (en) 2005-12-20 2009-07-28 Xerox Corporation Red eye detection and correction
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
JP4657934B2 (ja) 2006-01-23 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7587099B2 (en) 2006-01-27 2009-09-08 Microsoft Corporation Region-based image denoising
JP4532419B2 (ja) 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
JP4640825B2 (ja) 2006-02-23 2011-03-02 富士フイルム株式会社 特定向き顔判定方法および装置並びにプログラム
US7551754B2 (en) 2006-02-24 2009-06-23 Fotonation Vision Limited Method and apparatus for selective rejection of digital images
US7903870B1 (en) 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP2007241424A (ja) 2006-03-06 2007-09-20 Seiko Epson Corp 画像処理装置および画像処理方法
US8107762B2 (en) 2006-03-17 2012-01-31 Qualcomm Incorporated Systems, methods, and apparatus for exposure control
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
US7783085B2 (en) 2006-05-10 2010-08-24 Aol Inc. Using relevance feedback in face recognition
JP2007305030A (ja) 2006-05-15 2007-11-22 Fujifilm Corp 赤目処理方法および装置ならびにプログラム
JP4694424B2 (ja) 2006-06-21 2011-06-08 三菱電機株式会社 認証装置
US7715598B2 (en) 2006-07-25 2010-05-11 Arsoft, Inc. Method for detecting facial expressions of a portrait photo by an image capturing electronic device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4883783B2 (ja) 2006-12-22 2012-02-22 キヤノン株式会社 画像処理装置およびその方法
JP5049356B2 (ja) 2007-02-28 2012-10-17 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離
US8155399B2 (en) 2007-06-12 2012-04-10 Utc Fire & Security Corporation Generic face alignment via boosting
US8711102B2 (en) 2007-06-15 2014-04-29 Microsoft Corporation Graphical communication user interface with graphical position user input mechanism for selecting a display image
JP4720810B2 (ja) 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
CN101981911B (zh) 2008-01-18 2016-06-29 快图有限公司 图像处理方法和装置
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
FR2930360B1 (fr) 2008-04-21 2010-10-08 Inst Nat Rech Inf Automat Dispositif de traitement d'images ameliore.
US8781197B2 (en) 2008-04-28 2014-07-15 Cornell University Tool for accurate quantification in molecular MRI
WO2009139161A1 (ja) 2008-05-15 2009-11-19 株式会社ニコン 画像処理装置、画像処理方法、処理装置、処理方法およびプログラム
US8339451B2 (en) 2008-06-27 2012-12-25 Nokia Corporation Image navigation with multiple images
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
US8970770B2 (en) 2010-09-28 2015-03-03 Fotonation Limited Continuous autofocus based on face detection and tracking
US20120083294A1 (en) 2010-09-30 2012-04-05 Apple Inc. Integrated image detection and contextual commands

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111041A (ja) * 2001-09-28 2003-04-11 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US20030184671A1 (en) * 2002-03-28 2003-10-02 Robins Mark N. Glare reduction system for image capture devices
JP2004005694A (ja) * 2002-05-29 2004-01-08 Eastman Kodak Co 画像処理方法、デジタル画像プロセッサ、デジタルカメラ、デジタル写真仕上げシステム及びプログラム
JP2005078158A (ja) * 2003-08-28 2005-03-24 Dainippon Printing Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体
JP2005165984A (ja) * 2003-12-05 2005-06-23 Seiko Epson Corp 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
JP2005208760A (ja) * 2004-01-20 2005-08-04 Fujitsu Ltd 人物画像抽出装置、及びコンピュータプログラム
WO2006095860A1 (ja) * 2005-03-10 2006-09-14 Fuji Photo Film Co., Ltd. 背景置換装置、背景置換プログラム、および背景置換方法
US20070263119A1 (en) * 2006-05-15 2007-11-15 Microsoft Corporation Object matting using flash and no-flash images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN5012012826; Jian Sun et al.: 'Flash Matting' ACM TRANSACTIONS ON GRAPHICS Vol.25 No.3, 20060731, p.772-778, ACM *

Also Published As

Publication number Publication date
JP5456159B2 (ja) 2014-03-26
WO2010136593A2 (en) 2010-12-02
US8633999B2 (en) 2014-01-21
WO2010136593A3 (en) 2011-02-03
US20110050938A1 (en) 2011-03-03

Similar Documents

Publication Publication Date Title
JP5456159B2 (ja) 背景から前景の頭頂部を分離するための方法および装置
TWI550549B (zh) 圖像處理裝置及圖像處理方法
US9905031B2 (en) Method and related apparatus for capturing and processing image data
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
EP1984892B1 (en) Foreground/background segmentation in digital images
US8494286B2 (en) Face detection in mid-shot digital images
JP4772839B2 (ja) 画像識別方法および撮像装置
JP5896245B2 (ja) テキスト画像のトリミング方法
JP5201203B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20140016401A (ko) 이미지 촬상 방법 및 장치
JP5699432B2 (ja) 画像処理装置
JP4670658B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9070008B2 (en) Object recognition apparatus and dictionary data registration method
JP2006309405A (ja) メータ認識システム、メータ認識方法、およびメータ認識プログラム
JP4348028B2 (ja) 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2012105205A (ja) キーフレーム抽出装置、キーフレーム抽出プログラム、キーフレーム抽出方法、撮像装置、およびサーバ装置
JP2009159525A (ja) 撮像装置及び画像合成プログラム
JP5786544B2 (ja) 画像処理装置、撮像装置、及びプログラム
JP5754931B2 (ja) 画像解析装置、画像解析方法及びプログラム
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
JP2010200270A (ja) 画像処理装置、カメラおよびプログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP5212451B2 (ja) 領域特定方法、領域特定装置、プログラム、サーバ及びシステム
CN111275045A (zh) 图像的主体识别方法、装置、电子设备和介质
JP6150419B2 (ja) カメラおよびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R150 Certificate of patent or registration of utility model

Ref document number: 5456159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250