JP2004164624A - 低被写界深度画像セグメンテーションの方法及び機器 - Google Patents

低被写界深度画像セグメンテーションの方法及び機器 Download PDF

Info

Publication number
JP2004164624A
JP2004164624A JP2003358385A JP2003358385A JP2004164624A JP 2004164624 A JP2004164624 A JP 2004164624A JP 2003358385 A JP2003358385 A JP 2003358385A JP 2003358385 A JP2003358385 A JP 2003358385A JP 2004164624 A JP2004164624 A JP 2004164624A
Authority
JP
Japan
Prior art keywords
image
hos
feature space
region
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003358385A
Other languages
English (en)
Inventor
Changick Kim
キム チャンギック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2004164624A publication Critical patent/JP2004164624A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】低被写界深度画像セグメンテーションの方法及び機器
【解決手段】画像から被写体を抽出するための方法を提供する。この方法は、周波数情報に基づいて画像特徴空間を画定することから始まる。次に、画像特徴空間をフィルタ処理して焦点が合った領域及び焦点がぼけた領域を平滑化し、それと同時に、焦点の合った領域及び焦点がぼけた領域と関連づけられるそれぞれの境界を維持する。フィルタ処理された画像特徴空間を領域併合及び適応型しきい値処理により操作して被写体が抽出される。
【選択図】 図8

Description

本発明は、一般的にデジタル画像技術に関し、より具体的には画像をホモジーニアス領域に区画化するための方法並びに機器に関する。
画像の自動セグメンテーションはコンピュータビジョンで最も難しい問題の一つである。画像セグメンテーションの目的は、画像をホモジーニアス領域に区画化することである。被写界深度(DOF)とは、画像において視覚的に「鮮明」に感じられる焦点の最も近い点から最も遠い点までの距離のことである。低DOFは、2次元の写真内の深度情報を理解し易くするために広く用いられている写真技術である。低DOFとは、概して、被写体(OOI)には焦点がぴったり合っているが、背景にある物体はぼやけてピントがずれた状態になっていることである。図1Aから1Cは、低DOF画像を模式的に説明した図である。図1Aの蝶、つまり、被写体はきちんと焦点が合っているが、背景は焦点がぼけている。図1Bのサッカー選手及びサッカーボールは被写体で、どちらもきちんと焦点が合って鮮明であるが、背景はそうではない。同様に、図1Cでは、鳥に焦点が合って鮮明だが、他の部分はぼけている。例えば、内容に基づいた検索に対応できる画像のインデックス化、オブジェクトベースの画像圧縮、ビデオオブジェクトの抽出、3Dの微視的画像分析、深度推定に対応できる範囲分割など、低DOFを有する画像のセグメンテーションは数多くのアプリケーションに応用可能である。
焦点がぴったり合った領域が十分な高周波成分を有していると仮定すれば、高周波成分の量を比較することにより、低DOF画像の中の焦点の合った領域を識別することは可能なはずである。低DOF画像のセグメンテーションには2つのアプローチ、つまり、エッジベースのアプローチと領域ベースのアプローチとがある。エッジベースは、各エッジ画素での焦点ぼけの量を測定して物体の境界を抽出するもので、エッジベースのアルゴリズムを用いれば、人工的な物体と、はっきりした境界エッジを有する物体とをセグメント化できることが十分に実証されている。しかしながら、この方法では、自然物の境界のエッジを検出することができず、境界に不連続性が生じることが多い。
これに対して、領域ベースのセグメンテーションアルゴリズムは、画像における高周波領域の検出に基づいている。この方法では、まず高周波成分を計算して各画素の焦点の度合を測定することから始める。このために、平方反ガウス(squared anti-Gaussian:SSAG)関数の空間的加算、高周波数帯域におけるウェーブレット係数の分散(variance)、高周波ウェーブレット係数のマルチスケール統計的記述、局所分散(local variance)など、幾つかの方法が用いられている。しかし、高周波成分を活用するだけでは、焦点の合った領域とぼけた領域との両方にエラーが生じることが多い。焦点のぼけた領域では、ピントはずれが原因でぼやけているにもかかわらず、高周波数成分がまだ十分に強い、細かすぎるテクスチャ領域が存在することがある。こうした領域は焦点が合った領域として誤って分類されがちである。逆に、ほぼ一定した階調(gray level)を有する焦点の合った領域でもそうしたエラーを生じることがある。つまり、領域ベースのDOF画像セグメンテーション方式は、OOIの鮮明な細部だけを頼りにするところにその限界がある。さらに、マルチスケール方式では、高分解能分類に対応できる細分(refinement)アルゴリズムが組み込まれていても、断続的な境界を生じる傾向がある。
図2は、カメラのような典型的な画像取り込み装置の幾何光学(optical geometry)を表わした概略図である。レンズ100には、よく知られているレンズ方程式により、距離−zにある点からの光にだけしか焦点が合わないという欠点がある。
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
それゆえに、先行技術が抱える問題を解決して、背景から正確且つ効率的に被写体を抽出できるように、低被写界深度と関連づけられる画像をセグメント化するための方法並びに機器を提供することが求められている。
米国再発行特許発明第6,301,385号明細書 米国特許第6,157,733号明細書
大まかに言えば、本発明は、画像データから被写体(OOI)をより効果的に抽出するために、画像データを周波数ベースの画像データに変換し、その周波数ベースの画像データを単純化するための方法並びにシステムを提供することでこのようなニーズに応えるものである。本発明は、方法、システム、コンピュータコード、あるいはデバイスなど、いろいろな方法で実現できる。本発明の実施例をいくつか以下に説明する。
一実施例においては、画像データを区画化する方法を提供する。この方法は、周波数情報に基づいて画像の特徴空間を画定することから始まる。次に、その画像特徴空間のデータがモルフォロジカルツールによって単純化される。次に、そのフィルタ処理された画像特徴空間のある領域が初期被写体として割り当てられる。その領域はシート領域と呼ばれ、フィルタ処理された画像特徴空間の領域に割り当てられた最高位の値と関連づけられる。フィルタ処理された画像空間の領域は各々、実質的に一定な周波数レベルと関連づけられる。次に、フィルタ処理された画像特徴空間の初期OOIの境界が領域併合法(region merging technique)により更新される。次に、初期被写体の大きさを画像データサイズに対して決めるために、適応型しきい値処理が行なわれる。
別の実施例においては、画像セグメンテーションの方法を提供する。この方法は、画像データから高位統計量(HOS)マップを生成することから始まる。次に、HOSマップが単純化される。次に、その修正されたHOSマップの焦点の合った領域と関連づけられる境界が確定される。次に、焦点の合った領域の最終セグメンテーションが適応型しきい値処理により決められる。
また別の実施例では、画像から被写体を抽出するための方法を提供する。この方法は、周波数情報に基づいて画像特徴空間を画定することから始まる。次に、画像特徴空間をフィルタ処理して焦点の合った領域と焦点のぼけた領域を共に平滑化するが、その間、焦点の合った領域及び焦点のぼけた領域とそれぞれ関連づけられる境界を維持する。
さらに別の実施例においては、画像セグメンテーションのプログラム命令を有するコンピュータ可読媒体を提供する。このコンピュータ可読媒体には画像データから高位統計量(HOS)マップを生成するプログラム命令が入っている。HOSマップを修正するためのプログラム命令も入っている。修正されたHOSマップの焦点の合った領域と関連づけられる境界を確定するためのプログラム命令を提供する。焦点の合った領域と関連づけられる値の大きさに基づいて焦点の合った領域の最終セグメンテーションを画像データサイズに対して決めるためのプログラム命令も入っている。
別の実施例においては、画像取り込み装置を提供する。この画像取り込み装置は、被写界深度(DOF)内の物体に対して焦点を合わせるように構成されたレンズを備える。画像取り込み装置には画像記録装置が備えられている。この画像記録装置は、レンズを通して受け取った画像情報から、DOF内に物体を有するデジタル画像を生成するように構成されている。画像記録装置は、DOF内に入っている物体をデジタル画像から抽出するために、デジタル画像の高位統計量(HOS)マップを生成する能力を有する。
また別の実施例において、画像探索システムを提供する。この画像探索システムは、被写界深度(DOF)内の物体に対して焦点を合わせるように構成されたレンズを有する画像取り込み装置を含む。画像取り込み装置と通信している画像抽出装置を備える。この画像抽出装置はDOF内に入っている物体を抽出するように構成されている。画像抽出装置と通信している画像内容検索システムを備える。この画像内容検索システムは、DOF内に入っている物体に対応するデータを受け取るように構成される。画像内容検索システムはさらに、受け取ったデータのOOIと集めた画像データとの一致を識別するように構成される。
本発明のその他の態様及び効果については、添付の図面と共に考慮すれば、本発明の原理を例をあげて説明している以下に述べる詳細な説明から明確になる。
以下、本発明の実施形態を図面に基づいて説明する。
本発明を、低被写界深度(DOF)画像から被写体(OOI)を抽出するためのシステム、機器、並びに方法として説明する。しかしながら、以下の説明に照らして、本発明はこれらの具体的な詳細を部分的にあるいは全て知らなくても実施できることは当業者には明らかである。他の場合は、よく知られたプロセス動作については本発明を不要に曖昧にしないために詳細な説明は省く。図1A〜図1C及び図2については「背景技術」の項に説明がある。また、本明細書で「約」とは基準値の+/−10%のことである。
本発明の実施例は、画像において、低被写界深度(DOF)と関連づけられるぴったりと焦点が合った被写体(OOI)を、その他の前景又は背景の物体から区別するための方法及びシステムを提供する。従って、低DOF画像は焦点の合った領域と焦点がぼけた領域とに区画される。画像を区画するのに、色や輝度の情報ではなく、画像データと関連づけられる周波数情報を用いる。輝度や色による画像セグメンテーションが輝度やテクスチャ、色のプロパティを用いて領域を見つけるのとは違って、焦点が合った被写体の自動抽出では、ピントの合図(focus cue)が最も大きな役割を果たす可能性がある。低DOF画像は、セグメント化に適した特徴空間に変換される。例えば、この特徴空間への変換は、低DOF画像の中の全画素の高位統計量(higher order statistics;HOS)を計算してHOSマップを生成することにより実施できる。HOSマップは次に、以下に述べる「再構築によるモルフォロジカルフィルタ処理」によって単純化、つまり、修正される。被写体の境界が画定され、その境界が領域併合によって更新される。次に、適応型のしきい値処理によって最終の被写体が決められる。従って、様々なアプリケーションにおいて、低DOF画像データと関連づけられる被写体の正確な抽出が可能になる。
焦点の合った画像の焦点のぼけをモデル化するために、焦点のぼけによるぼやけの影響を2−Dガウス関数で表わすことが多い:
Figure 2004164624
Figure 2004164624
Figure 2004164624
方程式(4)から明らかなように、焦点がぼけた画像は低域フィルタ処理されるため、画像の高周波成分は除去または軽減される。焦点がぴったり合った領域に高周波成分が十分に含まれていると仮定すれば、含まれている高周波の量を比較することで低DOF画像から焦点の合った領域を区別することができるはずである。
Figure 2004164624
Figure 2004164624
ここで、Rはi番目の連結領域で、NooiはOOIに属する領域数である。言い換えれば、OOIは焦点の合った被写体を表わし、PのNooi領域から構成されている。方程式(5)は、当然、複数のOOIの定義を可能にする。すなわち、OOIは分離されたサブOOIから構成することができる。
セグメンテーションの第1歩は、低DOFの入力画像Iを最適な特徴空間に変換することである。なお、特徴空間の選択は、セグメンテーションアルゴリズムが対象としているアプリケーションによって決まる。例えば、特徴空間はウェーブレット係数の集合を表わすかもしれないし、局所分散画像フィールドを表わすかもしれない。
一例として、特徴空間変換で高位統計量(HOS)を適用する。より具体的には、画像の中の全ての画素に対して4次モーメントを算出する。なお、4次モーメントはガウス雑音を抑える能力を有するので、OOIの抽出の究極的な精度を向上させることができる。(x,y)での4次モーメントは次のように定義される:
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
図3A〜Cは、オリジナル画像と、本発明の一実施例による高位統計量の適用効果を説明する関連画像の特徴空間を表わすものである。図3Cは、図3Aに示された低DOF画像から上述した方法で生成されたHOSマップである。それを図3Bに示された局所分散マップと比較すると、図3CのHOSマップは焦点の合った領域では密度が高く、高い値を発生すると同時に、焦点がぼけた領域ではノイズを抑えていることが分かる。すなわち、被写体110cは、画像110bと比べて濃淡のない白のエリアがもっとはっきりしている。
なお、上に説明した特徴空間変換、つまり、HOSマップの定義へのHOS算出の適用は、より満足のいく特徴空間の画定し、最終的に画像セグメンテーションの抽出を可能にする。例えば、低DOF画像から変換されたHOSマップは0〜255の階調を有する。この0〜255の中の高い値は焦点の合った領域に対応する可能性が高い。焦点の合った滑らかな領域はHOS算出ではあまりうまく検出できないため、また焦点のぼけた領域ではノイズを発生させることもあるので、焦点の合った領域及び焦点がぼけた領域のそれぞれで小さく暗いあるいは明るい斑点(patch)を除去するのに適切なHOSマップ修正ツールが必要となる。
Figure 2004164624
Figure 2004164624
同様に、膨張は、
Figure 2004164624
初等侵食及び膨張変換によってモルフォロジカルopening/closing、といったモルフォロジカルフィルタの定義が可能になる。
Figure 2004164624
Figure 2004164624
によって与えられる。
Figure 2004164624
Figure 2004164624
Rに対するOの双対測地線膨張は、
Figure 2004164624
によって与えられる。
Figure 2004164624
侵食による再構築:
Figure 2004164624
膨張による再構築:
Figure 2004164624
Figure 2004164624
本書で説明したスキームの一実施例として、再構築によるモルフォロジカルopening/closingを単純化ツールとしてHOSマップに適用する。なお、再構築によるモルフォロジカルopening/closingフィルタの一つの強みは、小さな濃色の穴を埋め、小さな明るい孤立したパッチを取り除くが、それと同時に、他の成分やその輪郭を完全に保存することである。言うまでもなく、削除成分のサイズは構築要素のサイズで決まる。
図4A〜4Cは、本発明の一実施例による、低DOF画像のHOSマップ及び再構築によるモルフォロジカルフィルタのHOSマップへの適用を示す図である。図4D及び4Eについて以下に説明する。図4Aは、模式的低DOF画像である。図4Bは、図4Aの画像データの画素毎にHOSを算出して生成されたHOSマップである。図から分かるように、図4Bには被写体内に濃色のパッチがある。被写体は二人のサッカー選手とボール114aとして定義されている。さらに、領域116aにあるような明るいパッチが、焦点のぼけた領域にも明るいパッチとして存在する。図4BのHOSマップに「再構築によるモルフォロジカルフィルタ」などを適用して、HOSマップを単純化することで、焦点がぼけた領域内の小さな濃色のパッチが取り除かれている。すなわち、図4Cは単純化されたHOSマップを表わしており、この単純化は上に説明した「再構築によるモルフォロジカルフィルタ」の適用により実現される。例えば、サッカーボール114cにはサッカーボール114bに見られる濃色のパッチが入っていない。同様に、図4Cを図4Bと比較すると、焦点がぼけた領域の中の小さな明るいパッチは除去されている。このように、図4Cから明らかなように、このフィルタによって、焦点の合った滑らかな領域は十分にカバーされ、それと同時に、分散された小さな領域は除去される。
画像又は場面を輝度に関してホモジーニアス領域に区画化することに重点をおく典型的なモルフォロジカルセグメンテーション法では、モルフォロジカルフィルタによる単純化に続いてマーカー抽出及びwatershedアルゴリズムを用いてもいい。マーカー抽出のステップは、例えば、単純化のステップで得た一定の階調をもつ大きな領域を識別して、初期領域を選択する。その場合、上に説明したモルフォロジカルフィルタの適用を単純化のステップとしてもいい。マーカー抽出後、大多数の画素はどの領域にも割り当てられない。これらの画素は、主として領域の輪郭の周りに集まっている不安定性領域と対応する。与えられた領域に対するこれらの画素の割り当てを、パーティション又はセグメントを精確に定義する決定プロセスと考えることができる。モルフォロジカル決定ツールの一つがwatershedアルゴリズムで、領域成長法(region growing technique)と同じように画素にラベルを付ける。
画像の区画化に重点をおく従来の輝度ベースのセグメンテーションと違って、低DOF画像セグメンテーションのタスクは画像から焦点の合った領域(つまり、OOI)を抽出することである。類似した焦点の合った領域はシード領域を用いて併合される。シード領域とは、以下に述べるOOIの確率が高い領域である。
Figure 2004164624
Figure 2004164624
によって与えられる。
Figure 2004164624
仮説検定項にすると、
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
クラス条件付き確率密度関数を指数分布によってモデル化すると次のようになる:
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
Figure 2004164624
と、近似及び単純化することができる。
従って、nobiがTnobよりも大きければ、RiはOOIに併合され、OOIが更新される。このプロセスが、併合が発生しなくなるまで、繰り返される。なお、1/2という値は一つの模式的値で、Tnobにどんな適切な値でも選択できるので、本発明は値1/2に限定されるものではない。
図5A〜Cは、本発明の一実施例による、領域併合法を示す図である。図5Aで、nobiはTnobよりも大きいのでRi122はOOI0の中に併合するが、nobkはTnobに満たないのでRk126は併合しない。言い換えれば、Ri122とOOI0120aとが共有している境界はRi122の境界全体の1/2よりも大きいので、Ri122がOOI0120aの中に併合され、図5BのOOI1120bを画定することになる。Rk126とOOI0120aとの共有境界は1/2に満たないので、Rk126はOOI0120aの中に併合されない。上に述べたように、Tnobは、0と1を含め、適切なら0と1の間のどんな値でも構わない。図5Bに示すように、その次の反復において、nobj>Tnobだから、Rj124aがOOI1120bの中に併合し、図5CのOOI2120cになる。本発明の一実施例においては、このプロセスを速めるために、非常に小さな領域を最も近い値を有する隣接領域に前もって併合することができる。例えば、初期ステップとしてRj124aを領域Ri122の中に併合してもいい。図4Dは、領域併合が図4Cの単純化されたHOSマップに適用された結果を示している。例えば、図4Cの領域112cは、上に説明した領域併合法を用いて図4DのOOI118の中に併合される。
焦点の合った領域(つまり、OOI)と関連づけられるサイズの最終決定は、適応型しきい値処理により行なわれる。適応型しきい値処理の決定は、画像の中でOOIが占める部分は法外でないという前提に基づいている。TA=255から始めて、OOIの大きさが画像サイズの約20%を超えるまで、しきい値を下げていく。例えば、図5Cの場合、OOI2120cの大きさが画像サイズの約20%を超えるから、Rk126はOOIとは決定されない可能性がある。但し、OOI2120cの大きさは画像の約20%に満たないから、Rk126をOOIの一部分とみなすことができる。なお、本発明は適応型しきい値処理の画像サイズの20%という値に限定されるものではなく、画像サイズに対するOOIの大きさは適切ならばどんな値にしても構わない。図4Eについて言えば、図4Eの画像を生じるために、適応型しきい値処理法を図4Dに適用してもいい。
本書で説明している実施例は、JPEG圧縮されたCORELTMCD−ROM画像コレクションから選んだ低DOF画像で実行及びテストした。このテストでは、カラー画像を先ず階調画像(gray level image)に変換する。このテストで用いたテスト画像の中にホモジーニアスな焦点ぼけ領域を有しているものはなかった。上に定義した方程式6ではηに対して3×3近傍のサイズを用いた。テスト時、しきい値TLを20に設定した。当業者であれば、最も重要なパラメータの一つはモルフォロジカルフィルタの構造要素(SE)のサイズであることが分かるだろう。サイズは、図4Aに示した画像を除き、全ての実験で31×31に設定された。図4Aに示したサッカーボール114aはサイズ的に小さすぎるので、SEを31×31にするとボールがフィルタで除去される。主観的に見て結果がよくなるように、図4Aでだけ21×21のSEを採用した。
図6−1及び6−4は、本書で説明している実施例のセグメンテーション技法と関連づけられるステップ各々の実験結果を4組提供している。各組の最初の画像は低DOF画像である。各組の2番目の画像はそれぞれの低DOF画像から生成されたHOSマップである。3番目の画像は単純化されたHOSマップで、各HOSマップにはそれぞれ再構築によるモルフォロジカルフィルタが用いられている。4番目の画像は、単純化されたそれぞれのHOSマップに領域併合が適用された画像である。5番目の画像は、各組の4番目の画像に適応型しきい値処理が用いられた画像である。従って、5番目の画像は、本書で説明している実施例の適用から生まれた抽出OOIである。
図7−1から7−4は、セグメンテーション技法の結果を本書で説明している実施例を適用した結果と比較した4組の画像である。各組の最初の画像は低DOF画像である。2番目の画像は、高周波ウェーブレット及びその係数に基づくマルチスケール方式で得られた結果を示している。3番目の画像は、マルコフ確率場(MRF)モデルに基づくセグメンテーションを有する局所分散を用いて得られた結果を示したものである。4番目の画像は、本書で説明しているスキームを用いて得られた結果を示す。これらの図から実証されるように、2番目の画像シリーズから得られる結果は、高分解能分類に対応できる細分アルゴリズムが組み込まれているにもかかわらず、初期の分類がブロック分類であることが原因で、ブロック状になっている。各組の3番目の画像に用いられたアルゴリズムは、MRFモデルに平滑化の制約条件が採用されているために、隣接する非OOI領域が連結されがちになる。各組の4番目の画像に示した提案しているスキームでは、低DOFを有する様々な画像と比べてもっと正確な結果が得られている。比較のために、各組の5番目の画像は、人がマニュアルセグメンテーションによって生成した基準である。
提案しているアルゴリズムのセグメンテーション性能を客観的判定基準を用いて評価することもできる。ビデオオブジェクトセグメンテーションアルゴリズムの性能を評価するために提案された画素ベースの品質測度を用いて客観的判定基準を提供することができる。基準OOIに基づく推定OOIの空間的歪みは、
Figure 2004164624
Figure 2004164624
Figure 2004164624
図8は、本発明の1実施例による、画像から被写体を抽出するための方法のフローチャートである。この方法は、オペレーション140から始まる。ここで、画像特徴空間が定義される。画像特徴空間は、画像特徴空間と関連づけられる画像の各画素に高位HOSが適用されることに関して上に説明したように、周波数情報に基づく。この手続きは次にオペレーション142に進み、画像がフィルタ処理される。本発明の一実施例では、画像空間をフィルタ処理するのに再構築によるモルフォロジカルフィルタを用いる。上に説明したように、モルフォロジカルフィルタが画像空間を単純化する。すなわち、焦点の合った領域か又は焦点がぼけた領域かどちらかと関連づけられる隙間(holes)や孤立状態にあるパッチは、図4A〜4Eに関して説明したモルフォロジカルフィルタによって除去される。一例として、ホモジーニアス領域の内側を識別して初期OOIが生成される。単純化されたHOSマップの中の最高値を有する面積を初期OOIのシード領域とすることができる。一例として、値はホモジーニアス領域の周波数レベルに基づいている。
Figure 2004164624
図9は、本発明の一実施例における、低被写界深度画像と関連づけられる被写体を抽出するように構成された回路を有する画像取り込み装置の概略図である。画像取り込み装置150は被写体に対して焦点を合わせる能力を有するレンズ152を備える。被写体及び関連する背景情報が変換ブロック164でデジタル画像に変換される。デジタルデータは次に、被写体を抽出するために操作される。ここで、特定用途向けICなど、マイクロプロセッサ153は、本書で説明しているように被写体の抽出を実行するように構成される。
図9のマイクロプロセッサ153は画像抽出回路154を備える。画像抽出回路154は、上に説明したHOSマップを生成するように構成された画像特徴変換回路156からなる。フィルタ処理回路158は、被写界深度内の物体と関連づけられる境界を確定するように構成される。併合回路160は、HOSマップと関連づけられる周波数情報を分析してHOSマップの関連するホモジーニアス領域を結合するように構成される。併合回路160は、適応型しきい値処理に関して先に説明した機能を実行する能力を有する回路も備える。抽出された被写体を保持できるようにストレージメディア162を備える。特徴抽出関数及びクラスタリング/メタ・データ生成関数を実行するコードを半導体チップにハードコード化できることは言うまでもない。当業者であれば、先に説明した機能を提供するように構成された論理ゲートを画像抽出回路154に備えることができることが分かる。例えば、ファームウェア及び本書で説明した必要な機能を提供する論理ゲートのレイアウトを合成するには、ハードウェア記述言語(HDL)を用いることができる。
画像取り込み装置150は、例えば、顕微鏡、望遠鏡、カメラ、ビデオカメラなど、どんな画像取り込み装置であっても構わない。なお、画像抽出回路154は、画像取り込み装置150の一部となっていても又はプラグインボードとして構成されていても構わない。同様に、ストレージ162は画像取り込み装置150に内蔵されていても又は別になっていても構わない。従って、顕微鏡画像や、望遠鏡画像、又はどんな低DOF画像でも、被写体を抽出できるように、操作することができる。さらに、画像取り込み装置は、本書で説明している被写体を抽出する能力を有する汎用コンピュータと通信することができる。
図10は、本発明の一実施例による画像探索システムの概略図である。画像取り込み装置150は、レンズ152を通してデジタル画像データをブロック164に取り込むように構成される。取り込まれたデジタル画像データは、低被写界深度の被写体を抽出するように構成された画像抽出装置166で処理される。なお、本発明の一実施例において、画像抽出装置166は汎用コンピュータで構わない。すなわち、画像抽出装置166は、本書で説明した抽出スキーム通りに被写体の抽出を実行する。画像抽出装置166は、内容検索システム168と通信している。内容検索システム168はネットワーク170と通信している。従って、抽出された被写体に基づいて画像探索を分散型ネットワークで実行することができる。
要約すれば、本書で説明している実施例は、低DOF画像における画素をその高位統計量に基づいて2つの領域に分ける方法及びシステムを提供するものである。低DOF画像は適切な特徴空間に変換される。それを本書ではHOSマップと呼んだ。HOSマップを単純化するのに「再構築によるモルフォロジカルフィルタ」を用いた。モルフォロジカルフィルタを適用した後、領域併合法を用いた。その後、被写体と関連づけられるサイズの最終決定ができるように、適応型しきい値処理を用いる。
なお、単純化に強力なモルフォロジカルツールを採用すると、境界に高周波成分(つまり、エッジ)が入っている限り、提案したスキームは焦点の合った滑らかな領域に対して均等に働く。但し、焦点の合った滑らかな領域が大きすぎると、本書で説明した実施例は効果が低下する可能性がある。アルゴリズムが何らかの意味論や人間の知識を組み込めるように構成されていれば、この問題を解決することができる。任意のビデオシーケンスからビデオオブジェクトを抽出することは未だに非常に難しい問題だから、当業者であれば、提案しているアルゴリズムは低DOF写真技術と共にビデオオブジェクトセグメンテーションに展開できることが分かる。さらに、本書で説明している実施例は、例えば、顕微鏡検査法や写真術など、適切ならば被写体を抽出するのが好ましいどんな低被写界深度の画像にも応用することができる。
上述の実施例を考えれば、本発明は、コンピュータシステムに保持されているデータを必要とする多種多様なコンピュータで実施されるオペレーションを採用できることが分かる。これらのオペレーションには、物理的数量の物理的操作を要するオペレーションがある。必ずしもそうとは限らないが、普通、こうした数量は保持や、転送、結合、比較、或いはその他の操作が可能な電気信号又は磁気信号の形になっている。さらに、実行される操作は、生成や、識別、確定、或いは比較といった用語で表現される。
上に説明した発明を、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースの又はプログラム可能なコンシューマエレクトロニクス、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成を用いて実施することができる。本発明を、通信ネットワークを介してリンクされた遠隔処理装置でタスクが処理される分散型コンピューティング環境において実施することもできる。
本発明を、コンピュータ可読媒体に記録されたコンピュータ可読コードとして実施することもできる。コンピュータ可読媒体は、後からコンピュータシステムで読み取れるデータを保持できるならどんなデータストレージ装置でも構わない。コンピュータコードが実装された電磁搬送波もコンピュータ可読媒体の一つである。コンピュータ可読媒体の例としては、ハードドライブ、ナス(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープや、その他の光学的及び非光学的データストレージ装置などがある。コンピュータ可読コードが分散して保持及び実行されるように、コンピュータ可読媒体をネットワーク接続コンピュータシステムで分散することもできる。
はっきり理解できるように上記の発明を或る程度詳細に説明してきたが、添付の特許請求の範囲内で一定の変更や修正を実施できることは明らかである。従って、本書の実施例は説明のためでそれにより限定されるものではない。また、本発明は本書に記載された詳細に限定されるものではなく、特許請求の範囲及びそれと同等の範囲内において修正可能である。特許請求の範囲において、はっきりと明記されていない限り、要素及び/又はステップはオペレーションの特定の順序を暗に示すものではない。
低DOF画像の模式的図。 カメラなど一般的画像取り込み装置の幾何光学的に示した図。 オリジナル画像と本発明による高位統計量の適用の効果を示す関連画像特徴空間を表わす図。 本発明による、低DOF画像(4A)のHOSマップ(4B)、再構築によるモルフォロジカルフィルタのHOSマップへの適用(4C)、領域併合を適用した結果(4D)、適応型しきい値処理を適用した結果(4E)を示す図。 本発明による、領域併合法を説明した図。 本発明のセグメンテーション技法と関連づけられるステップの4組の実験結果。 既存のセグメンテーション技法と本発明の適用結果を比較した画像。 画像から被写体を抽出する方法のフローチャート。 低被写界深度画像と関連づけられる被写体を抽出する回路を有する画像取り込み装置の概略図。 画像探索システムの概略図。
符号の説明
100、152 レンズ
162 ストレージ
166 画像抽出装置
168 内容検索システム
170 ネットワーク

Claims (36)

  1. 画像データを区画化する方法であって、
    周波数情報に基づいて画像特徴空間を画定し、
    その画像特徴空間の画像データをモルフォロジカルツールを用いてフィルタ処理し、
    そのフィルタ処理された画像特徴空間の領域を初期被写体として割り当て、
    そのフィルタ処理された画像特徴空間の初期被写体の境界を識別し、
    画像データサイズに対して初期被写体のサイズを確定する、
    ことからなることを特徴とする方法。
  2. 前記フィルタ処理された画像特徴空間の初期被写体の境界を識別するオペレーションは、
    前記初期被写体とその初期被写体との境界をなす領域とが共有している境界画素を示す値を表わす正規化されたオーバラップ境界を算出し、
    その値がしきい値を超えていれば、この方法では、
    前記初期被写体との境界をなす領域を初期被写体の中に併合することを特徴とする請求項1に記載の方法。
  3. 前記周波数情報に基づいて画像特徴空間を画定するオペレーションでは、
    前記画像特徴空間と関連づけられる各画素値の高位統計量(HOS)を計算することを特徴とする請求項1に記載の方法。
  4. 前記HOSは各画素値と関連づけられる4次モーメントを算出することを特徴とする請求項3に記載の方法。
  5. 前記画像特徴空間の画像データをモルフォロジカルツールを用いてフィルタ処理するオペレーションでは、
    前記被写体の境界を保存するようにモルフォロジカルツールを画像特徴空間の画像データに適用することを特徴とする請求項1に記載の方法。
  6. 前記画像特徴空間の画像データをモルフォロジカルツールを用いてフィルタ処理するオペレーションでは、
    前記画像特徴空間の焦点が合った領域と関連づけられる濃色パッチを除去し、
    前記画像特徴空間の焦点がぼけた領域と関連づけられる明るいパッチを除去する、
    ことを特徴とする請求項1に記載の方法。
  7. 前記フィルタ処理された画像特徴空間の領域を初期被写体として割り当てるオペレーションでは、
    実質的に一定な周波数レベルと関連づけられる画像特徴空間の領域を識別し、
    その実質的に一定な周波数レベルに基づいて識別された領域の各々に値を割り当て、ここでは初期被写体と関連づけられるフィルタ処理された画像空間の領域に最高値が割り当てられることを特徴とする請求項1に記載の方法。
  8. 画像セグメンテーションの方法であって、
    画像データから高位統計量(HOS)マップを生成し、
    そのHOSマップを修正し、
    その修正されたHOSマップの焦点の合った領域と関連づけられる境界を確定し、
    画像データサイズに対して、焦点の合った領域と関連づけられる値の大きさに基づいて焦点の合った領域の最終セグメンテーションを確定する、
    ことからなることを特徴とする方法。
  9. 前記画像データから高位統計量(HOP)マップを生成するオペレーションでは、
    各画素と関連づけられる値をスケーリングし、
    各画素と関連づけられる値の最大値を限定することを特徴とする請求項8に記載の方法。
  10. 前記修正されたHOSマップの焦点の合った領域と関連づけられる境界を確定するオペレーションでは、
    前記焦点の合った領域と前記境界をなす領域とで共有している境界量を示す値を確定し、
    その値がしきい値よりも大きければ、この方法では、
    前記焦点の合った領域と前記境界をなす領域とを併合することを特徴とする請求項8に記載の方法。
  11. 前記画像データサイズに対する焦点の合った領域と関連づけられる値の大きさに基づいて焦点の合った領域の最終セグメンテーションを確定するオペレーションでは、
    前記焦点の合った領域と関連づけられる値の大きさが画像データサイズに対して約20%よりも大きくなるまで、しきい値を減少することを特徴とする請求項8に記載の方法。
  12. 前記焦点の合った領域とは被写体であることを特徴とする請求項8に記載の方法。
  13. 前記HOSマップを修正するオペレーションでは、
    侵食による再構築を前記HPSマップと関連づけられる画素値に適用し、
    膨張による再構築を前記画素値に適用し、前記膨張による再構築の適用では、
    前記HOSマップと関連づけられる構成要素の輪郭を回復することを特徴とする請求項8に記載の方法。
  14. 前記画像データサイズに対して焦点の合った領域と関連づけられる値の大きさに基づいて焦点の合った領域の最終セグメンテーションを確定するオペレーションでは、
    しきい値を定義し、
    そのしきい値で前記焦点の合った領域と関連づけられる値の大きさを確定し、
    前記焦点の合った領域と関連づけられる値の大きさが前記画像データサイズの約20%を超えるまで前記しきい値を減少することを特徴とする請求項8に記載の方法。
  15. 前記修正されたHOSマップのホモジーニアス領域の内側を識別し、
    そのホモジーニアス領域にマーカーを割り当てることからさらになることを特徴とする請求項8に記載の方法。
  16. 画像から被写体を抽出するための方法であって、
    周波数情報に基づいて画像特徴空間を画定し、
    その画像特徴空間をフィルタ処理して焦点の合った領域並びに焦点がぼけた領域を平滑化し、それと同時に前記焦点が合った領域及び前記焦点がぼけた領域と関連づけられるそれぞれの境界を維持する、
    ことからなることを特徴とする方法。
  17. 同じような焦点の合った領域を併合して被写体(OOI)を画定し、
    その被写体のサイズを前記画像特徴空間に対して確定することからさらになることを特徴とする請求項16に記載の方法。
  18. 前記周波数情報に基づいて画像特徴空間を画定するオペレーションでは、
    前記画像の各画素値の高位統計量(HOS)を算出し、
    その算出されたHOSからHOSマップを定義することを特徴とする請求項16に記載の方法。
  19. 前記画像特徴空間をフィルタ処理して焦点の合った領域並びに焦点がぼけた領域を平滑化すると同時に前記焦点が合った領域及び前記焦点がぼけた領域と関連づけられるそれぞれの境界を維持するオペレーションでは、
    再構築によるモルフォロジカルフィルタを前記画像特徴空間に適用することを特徴とする請求項16に記載の方法。
  20. 画像セグメンテーションのためのプログラム命令を有するコンピュータ可読媒体であって、
    画像データから高位統計量(HOS)マップを生成するためのプログラム命令と、
    そのHOSマップを修正するためのプログラム命令と、
    その修正されたHOSマップの焦点の合った領域と関連づけられる境界を確定するためのプログラム命令と、
    その焦点の合った領域と関連づけられる値の大きさに基づいて前記焦点の合った領域の最終セグメンテーションを画像データサイズに対して確定するためのプログラム命令と、
    を有することを特徴とするコンピュータ可読媒体。
  21. 前記画像データから高位統計量(HOS)マップを生成するためのプログラム命令には、
    各画素と関連づけられる値をスケーリングするためのプログラム命令と、
    前記各画素と関連づけられる値の最大値を限定するためのプログラム命令と、
    があることを特徴とする請求項20に記載のコンピュータ可読媒体。
  22. 前記修正されたHOSマップの焦点の合った領域と関連づけられる境界を確定するための命令プログラムは、
    前記焦点の合った領域及び前記境界をなす領域間で共有している境界の量を示す値を確定するためのプログラム命令と、
    前記値がしきい値よりも大きければ、前記焦点の合った領域及び前記境界をなす領域を併合するためのプログラム命令とを有することを特徴とする請求項20に記載のコンピュータ可読媒体。
  23. 前記焦点の合った領域と関連づけられる値の大きさに基づいて前記焦点の合った領域の最終セグメンテーションを画像データサイズに対して確定するためのプログラム命令は、
    前記画像データサイズに対する焦点の合った領域と関連づけれる値の大きさが20%より大きくなるまでしきい値を減少するためのプログラム命令を有することを特徴とする請求項20に記載のコンピュータ可読媒体。
  24. 前記HOSマップを修正するためのプログラム命令は、
    侵食による再構築を前記HOSマップと関連づけられる画素値に適用するためのプログラム命令と、
    その画素値に膨張による再構築を適用するためのプログラム命令とを有し、前記膨張による再構築を適用するためのプログラム命令は、
    前記HOSマップと関連づけられる構成要素の輪郭を回復するためのプログラム命令を有することを特徴とする請求項20に記載のコンピュータ可読媒体。
  25. 前記修正されたHOSマップのホモジーニアス領域の内側を識別するための命令プログラムと、
    そのホモジーニアス領域にマーカーを割り当てるためのプログラム命令と、
    をさらに有することを特徴とする請求項20に記載のコンピュータ可読媒体。
  26. 画像取り込み装置であって、
    被写界深度(DOF)内の物体に対して焦点を合わせるように構成されたレンズと、
    そのレンズを通して受け取られた画像情報から前記DOF内の物体を含むデジタル画像を生成するように構成された画像記録装置とを備え、この画像記録装置は、前記デジタル画像から前記DOF内にある前記物体を抽出するために、前記デジタル画像の高位統計量(HOS)マップを生成する能力があることを特徴とする画像取り込み装置。
  27. 前記画像記録装置には、前記DOF内の物体と関連づけられる境界を確定するように構成されたフィルタ処理回路があることを特徴とする請求項26に記載の画像取り込み装置。
  28. 前記HOSマップは、前記デジタル画像と関連づけられる周波数情報に基づいて特徴空間を画定することを特徴とする請求項26に記載の画像取り込み装置。
  29. 前記画像記録装置には、前記HOSマップを生成するように構成された特徴変換回路と、前記周波数情報を分析して前記HOSマップの関連するホモジーニアス領域を結合するように構成された併合回路とを有することを特徴とする請求項26に記載の画像取り込み装置。
  30. 前記画像取り込み装置は、顕微鏡と、望遠鏡、カメラ、及びビデオカメラからなるグループから選択されることを特徴とする請求項26に記載の画像取り込み装置。
  31. 画像探索システムであって、
    被写界深度(DOF)内の物体に対して焦点を合わせるように構成されたレンズを有する画像取り込み装置を備え、
    その画像取り込み装置と通信している画像抽出装置を備え、この画像抽出装置は前記DOF内の物体を抽出するように構成され、
    前記画像抽出装置と通信している画像内容検索システムを備え、この画像内容検索システムは前記DOF内の物体に対応するデータを受け取るように構成され、前記画像内容検索システムはさらに前記受け取られたデータと集められた画像データとの一致を識別するように構成されることを特徴とする画像探索システム。
  32. 前記画像取り込み装置は、顕微鏡と、望遠鏡、カメラ、及びビデオカメラからなるグループから選択されることを特徴とする請求項31に記載の画像探索システム。
  33. 前記画像抽出装置は汎用コンピュータであることを特徴とする請求項31に記載の画像検索システム。
  34. 前記画像抽出装置は前記画像取り込み装置の中に組み込まれて一体化されていることを特徴とする請求項31に記載の画像探索システム。
  35. 前記画像内容検索システムには、
    前記集められた画像データを保持するように構成されたデータベースと、
    前記受け取ったデータと集められた画像データとの一致を、前記受け取ったデータと関連づけられるシグネチャインデックスと前記集められた画像データと関連づけられるシグネチャインデックスとの比較により、識別するように構成されたデータベース照会システムとを備えることを特徴とする請求項31に記載の画像探索システム。
  36. 前記物体は被写体であることを特徴とする請求項31に記載の画像探索システム。
JP2003358385A 2002-10-17 2003-10-17 低被写界深度画像セグメンテーションの方法及び機器 Withdrawn JP2004164624A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US41930302P 2002-10-17 2002-10-17
US45138403P 2003-02-28 2003-02-28
US10/412,128 US7302096B2 (en) 2002-10-17 2003-04-11 Method and apparatus for low depth of field image segmentation

Publications (1)

Publication Number Publication Date
JP2004164624A true JP2004164624A (ja) 2004-06-10

Family

ID=32096876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003358385A Withdrawn JP2004164624A (ja) 2002-10-17 2003-10-17 低被写界深度画像セグメンテーションの方法及び機器

Country Status (2)

Country Link
US (1) US7302096B2 (ja)
JP (1) JP2004164624A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294781A (ja) * 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置
CN106487359A (zh) * 2016-10-14 2017-03-08 石家庄铁道大学 基于自适应多尺度AVG‑Hat变换的形态学滤波器的构造方法

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160897B2 (en) * 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7636486B2 (en) 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US8417055B2 (en) * 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US8989516B2 (en) * 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7639889B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US8264576B2 (en) * 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US8199222B2 (en) * 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US7061519B2 (en) * 2003-08-09 2006-06-13 Hewlett-Packard Development Company, L.P. Scaling an image
US7907769B2 (en) 2004-05-13 2011-03-15 The Charles Stark Draper Laboratory, Inc. Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation
US7596265B2 (en) 2004-09-23 2009-09-29 Hewlett-Packard Development Company, L.P. Segmenting pixels in an image based on orientation-dependent adaptive thresholds
JP2006129152A (ja) * 2004-10-29 2006-05-18 Konica Minolta Holdings Inc 撮像装置および画像配信システム
US7639888B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
TWI256232B (en) * 2004-12-31 2006-06-01 Chi Mei Comm Systems Inc Mobile communication device capable of changing man-machine interface
IES20070229A2 (en) * 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US7773118B2 (en) * 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
US20080309770A1 (en) * 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
TWI346499B (en) * 2007-09-19 2011-08-01 Asustek Comp Inc A method for dynamically adjusting the images of a web camera
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8737703B2 (en) 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8326029B1 (en) 2008-03-21 2012-12-04 Hewlett-Packard Development Company, L.P. Background color driven content retrieval
TWI376647B (en) * 2008-08-25 2012-11-11 Univ Nat Taiwan Science Tech Method for identifying foregrounds of visual content
US20100079448A1 (en) * 2008-09-30 2010-04-01 Liang-Gee Chen 3D Depth Generation by Block-based Texel Density Analysis
KR100957716B1 (ko) * 2008-10-07 2010-05-12 한국 한의학 연구원 가변 피부색 모델을 이용한 피부색 영역 검출 방법
KR20100051359A (ko) * 2008-11-07 2010-05-17 삼성전자주식회사 영상 데이터 생성 방법 및 장치
TWI457853B (zh) * 2009-03-24 2014-10-21 Ind Tech Res Inst 提供深度資訊之影像處理方法及其影像處理系統
US8346005B2 (en) * 2009-09-24 2013-01-01 Sony Corporation System and method for “Bokeh-Aji” shot detection and region of interest isolation
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction
US9607202B2 (en) * 2009-12-17 2017-03-28 University of Pittsburgh—of the Commonwealth System of Higher Education Methods of generating trophectoderm and neurectoderm from human embryonic stem cells
TWI412948B (zh) * 2009-12-31 2013-10-21 Ind Tech Res Inst 三維物件的碰撞模擬方法
US8406510B2 (en) * 2010-03-10 2013-03-26 Industrial Technology Research Institute Methods for evaluating distances in a scene and apparatus and machine readable medium using the same
CN101799916A (zh) * 2010-03-16 2010-08-11 刘国传 基于贝叶斯估计的生物芯片图像小波去噪方法
CN102182443B (zh) * 2011-03-31 2013-09-25 李广青 深井影像采集系统
US20130094753A1 (en) * 2011-10-18 2013-04-18 Shane D. Voss Filtering image data
US8943426B2 (en) * 2011-11-03 2015-01-27 Htc Corporation Method for displaying background wallpaper and one or more user interface elements on display unit of electrical apparatus at the same time, computer program product for the method and electrical apparatus implementing the method
TWI463393B (zh) * 2011-11-03 2014-12-01 Htc Corp 於一電子裝置之一顯示單元顯示一或多個使用者介面元件於一背景桌布的方法及其電腦程式產品暨其電子裝置
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
TWI482468B (zh) 2012-11-23 2015-04-21 Inst Information Industry 物體偵測裝置、方法及其電腦可讀取紀錄媒體
US9025874B2 (en) 2013-02-19 2015-05-05 Blackberry Limited Method and system for generating shallow depth of field effect
US9311550B2 (en) 2013-03-06 2016-04-12 Samsung Electronics Co., Ltd. Device and method for image processing
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
RU2014104445A (ru) * 2014-02-07 2015-08-20 ЭлЭсАй Корпорейшн Формирования изображения глубины с использованием информации о глубине, восстановленной из амплитудного изображения
US20150348260A1 (en) 2014-05-29 2015-12-03 Siemens Aktiengesellschaft System and Method for Mapping Patient Data from One Physiological State to Another Physiological State
US9876964B2 (en) 2014-05-29 2018-01-23 Apple Inc. Video coding with composition and quality adaptation based on depth derivations
CN104077597B (zh) * 2014-06-25 2017-09-05 小米科技有限责任公司 图像分类方法及装置
EP3264369B1 (en) * 2017-08-22 2021-09-29 Siemens Healthcare GmbH Visualizing an image data set with object-dependent focusing parameter
WO2019222951A1 (en) * 2018-05-24 2019-11-28 Nokia Technologies Oy Method and apparatus for computer vision
EP3873083A4 (en) 2018-11-02 2021-12-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DEPTH IMAGE PROCESSING, DEPTH IMAGE PROCESSING APPARATUS AND ELECTRONIC APPARATUS
CN110334692B (zh) * 2019-07-17 2021-07-23 河南科技大学 一种基于图像处理的盲道识别方法
CN111931727A (zh) * 2020-09-23 2020-11-13 深圳市商汤科技有限公司 点云数据标注方法、装置、电子设备和存储介质
CN115131350B (zh) * 2022-08-30 2022-12-16 南京木木西里科技有限公司 一种大景深观测与表面形貌分析系统
US11947736B1 (en) * 2022-12-21 2024-04-02 Varjo Technologies Oy Utilising focussing of light sources in image for controller tracking

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US141650A (en) * 1873-08-12 Improvement in apparatus for feeding fuel to furnaces
US5257182B1 (en) * 1991-01-29 1996-05-07 Neuromedical Systems Inc Morphological classification system and method
JPH0573627A (ja) 1991-09-10 1993-03-26 Mitsubishi Electric Corp 画像検索装置
US6058209A (en) * 1991-09-27 2000-05-02 E. I. Du Pont De Nemours And Company Method for resolving redundant identifications of an object
EP0584559A3 (en) * 1992-08-21 1994-06-22 United Parcel Service Inc Method and apparatus for finding areas of interest in images
JP3490482B2 (ja) 1993-09-20 2004-01-26 株式会社東芝 エッジ及び輪郭抽出装置
EP0758470B1 (en) * 1994-05-05 2002-07-24 Northrop Grumman Corporation Method and apparatus for locating and identifying an object of interest in a complex image
US5647025A (en) * 1994-09-20 1997-07-08 Neopath, Inc. Automatic focusing of biomedical specimens apparatus
JPH08190634A (ja) 1995-01-06 1996-07-23 Olympus Optical Co Ltd 画像処理装置
US20010033680A1 (en) * 1995-10-26 2001-10-25 Bankman Isaac N. Method and system for detecting small structures in images
JP3752510B2 (ja) 1996-04-15 2006-03-08 イーストマン コダック カンパニー 画像の自動被写体検出方法
US5960111A (en) * 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding
US6157733A (en) 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
US7027655B2 (en) 2001-03-29 2006-04-11 Electronics For Imaging, Inc. Digital image compression with spatially varying quality levels determined by identifying areas of interest
TW530498B (en) * 2001-08-14 2003-05-01 Nat Univ Chung Cheng Object segmentation method using MPEG-7

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294781A (ja) * 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置
CN106487359A (zh) * 2016-10-14 2017-03-08 石家庄铁道大学 基于自适应多尺度AVG‑Hat变换的形态学滤波器的构造方法
CN106487359B (zh) * 2016-10-14 2019-02-05 石家庄铁道大学 基于自适应多尺度AVG-Hat变换的形态学滤波器的构造方法

Also Published As

Publication number Publication date
US20040076335A1 (en) 2004-04-22
US7302096B2 (en) 2007-11-27

Similar Documents

Publication Publication Date Title
JP2004164624A (ja) 低被写界深度画像セグメンテーションの方法及び機器
Du et al. Image segmentation-based multi-focus image fusion through multi-scale convolutional neural network
Bhat et al. Multi-focus image fusion techniques: a survey
CN111104943B (zh) 基于决策级融合的彩色图像感兴趣区域提取方法
US8045783B2 (en) Method for moving cell detection from temporal image sequence model estimation
CN100514367C (zh) 基于彩色分割的立体3d重构系统和方法
CN101416219B (zh) 数字图像中的前景/背景分割
IES20060564A2 (en) Improved foreground / background separation
CN111145209A (zh) 一种医学图像分割方法、装置、设备及存储介质
JP2016505186A (ja) エッジ保存・ノイズ抑制機能を有するイメージプロセッサ
CN111681198A (zh) 一种形态学属性滤波多模融合成像方法、系统及介质
KR100813168B1 (ko) 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템
CN108305268A (zh) 一种图像分割方法及装置
CN108234826B (zh) 图像处理方法及装置
Wang et al. An efficient method for image dehazing
CN100423021C (zh) 用于低景深图像分割的方法和装置
KR102466061B1 (ko) 계층적 생성 적대 네트워크를 이용한 노이즈 제거 장치 및 그 방법
CN117132503A (zh) 一种图像局部高亮区域修复方法、系统、设备及存储介质
Jin et al. A color image segmentation method based on improved K-means clustering algorithm
Gu et al. Joint Space-Time-Range Mean ShiftBased Image and Video Segmentation
Fenyi et al. Gaussian based image segmentation algorithm
Finger et al. Video Matting from Depth Maps
CN110322409B (zh) 一种基于标记图的改进型小波变换图像融合方法
Roosta et al. Multifocus image fusion based on surface area analysis
CN110286464B (zh) 一种基于面积准则的自动聚焦方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20071217