JP2009524884A - 画像内の照明域を識別する方法及びシステム - Google Patents

画像内の照明域を識別する方法及びシステム Download PDF

Info

Publication number
JP2009524884A
JP2009524884A JP2008552454A JP2008552454A JP2009524884A JP 2009524884 A JP2009524884 A JP 2009524884A JP 2008552454 A JP2008552454 A JP 2008552454A JP 2008552454 A JP2008552454 A JP 2008552454A JP 2009524884 A JP2009524884 A JP 2009524884A
Authority
JP
Japan
Prior art keywords
image
token
linear
tokens
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008552454A
Other languages
English (en)
Other versions
JP4997252B2 (ja
Inventor
ケーシー アーサー スミス
リチャード マーク フリードホフ
ブルース アレン マックスウェル
Original Assignee
タンデント ビジョン サイエンス インコーポレーティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タンデント ビジョン サイエンス インコーポレーティッド filed Critical タンデント ビジョン サイエンス インコーポレーティッド
Publication of JP2009524884A publication Critical patent/JP2009524884A/ja
Application granted granted Critical
Publication of JP4997252B2 publication Critical patent/JP4997252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

本発明の第1の例示的な実施形態では、画像内の照明域を決定する自動化されコンピュータ化された方法が提供される。この方法は、画像内の均等な線形トークンを識別するステップと、均等な線形トークンを利用して照明域を識別するステップとを含む。

Description

これは、2006年1月27日に出願された米国特許出願第11/341,753号の利益を主張するものである。
近代のコンピュータ技術の多くの有意で商業的に重要な用途は、画像に関連する。これらには、画像処理、画像解析、及びコンピュータビジョンの用途が含まれる。コンピュータを利用して画像に関連する操作を的確かつ正確に実行するに当たっての問題は、視覚世界で発生している物理現象を真に反映し、表現するアルゴリズムの開発である。例えば、画像内で影と有形物のエッジとを正確かつ的確に区別するコンピュータの能力は、科学者にとって解決されない問題であってきた。物理的な物体のエッジの的確かつ正確な検出なしでは画像の他の処理が不可能であるため、エッジ検出は、画像処理における必須の作業である。投じられた影をその影を投じている物体から区別できなければ、コンピュータが物体を認識することは不可能である。
物体エッジ検出に対する初期の従来の手法は、画像内の輝度境界の解析を含む。この解析では、有形物により生じる境界が鮮鋭化されるのに対して、影により生じる境界が、影の半影効果によりソフト化又は平滑化されるものと仮定される。この手法は、コンピュータにより的確に実行することができるアルゴリズムにより実施することができるが、その結果は不正確なことが多い。現実世界では、影が鮮鋭な境界をなし、逆に、有形物のエッジが柔らかい境界をなす多くの場合がある。したがって、影及びエッジの認識に従来の技法を利用する場合、影認識に関して誤検出及び検出漏れの大きな可能性がある。これは、例えば、影に似ているため、コンピュータにより影として誤って識別されるマテリアル/物質のエッジであり、又は物体境界として誤って解釈される鮮鋭な影の境界である。したがって、画像に関連するコンピュータの動作に利用することができる的確で正確な技法の開発が永続的に必要とされる。
本発明は、画像内の照明域を識別するための、視覚世界で発生する物理現象を的確かつ正確に反映し表現する画像技法を含む方法及びシステムを提供する。
本発明の第1の例示的な実施形態では、画像内の照明域を決定する自動化されコンピュータ化された方法が提供される。この方法は、画像内の線形トークンを識別するステップと、線形トークンを利用して照明域を識別するステップとを含む。
本発明の第2の例示的な実施形態では、画像の影/明ピクセルを決定する自動化されコンピュータ化される方法が提供される。この方法は、画像内の均等トークンを識別するステップと、均等トークンを利用して画像の影/明ピクセルを識別するステップとを含む。
本発明の第3の例示的な実施形態では、画像内の影を決定する自動化されコンピュータ化される方法が提供される。この方法は、画像の固有のスペクトル比を計算するステップと、固有のスペクトル比を利用して画像内の影を識別するステップとを含む。
本発明の第4の例示的な実施形態では、画像内のマテリアル(物質)エッジを決定する自動化されコンピュータ化される方法が提供される。この方法は、画像の照明勾配を計算するステップと、照明勾配を利用して画像内のマテリアルエッジを識別するステップと含む。
本発明の第5の例示的な実施形態では、画像内の照明域を決定する自動化されコンピュータ化された方法が提供される。この方法は、画像内のトークンを識別するステップと、識別されたトークンをクラスタ化して群にするステップと、トークン群を利用して照明域を識別するステップとを含む。
本発明のさらなる実施形態によれば、コンピュータシステムであって、上述した方法を実行するように構成(例えば、プログラム)された1つ又は複数のコンピュータを含むコンピュータシステムが提供される。本発明の他の実施形態によれば、コンピュータ可読媒体であって、上述した実施形態を実施するようにコンピュータを制御するように動作可能なコンピュータ実行可能プロセスステップを記憶したコンピュータ可読媒体が提供される。この自動化されコンピュータ化された方法は、デジタルコンピュータ、アナログコンピュータ、光学センサ、状態機械、シーケンサ、又は本発明の方法のステップを実行するように設計可能又はプログラム可能な任意の機器若しくは装置により実行することができる。
これより図面、最初は図1を参照して、画像に関連する操作を実行するように準備され構成されたコンピュータシステム10のブロック図を示す。CPU12が、例えばデジタルカメラ14等の装置に、例えばUSBポートを介して結合される。デジタルカメラ14は、カメラ14にローカルに記憶されている画像をCPU12にダウンロードするように動作する。CPU12は、ダウンロードされた画像を画像ファイル18としてメモリ16に記憶する。CPU12は、画像ファイル18にアクセスして、モニタ20に表示し、又はプリンタ22でプリントアウトする。
あるいは、CPUは、例えば、デジタルカメラ14又はロボット等の装置に組み込まれたマイクロプロセッサとして実施することができる。CPUは、例えば、ロボット動作又はユーザとのインタラクティブ動作と併せた画像に関連するリアルタイム操作のためにリアルタイムオペレーティングシステムを装備することもできる。
図2に示すように、各画像ファイル18はn×mピクセルアレイを含む。各ピクセルpは、全体画像の離散部分に対応する画素である。すべてのピクセルが一緒になって、画像ファイル18により表される画像を画定する。各ピクセルは、カラーバンドセット、例えば、画素の赤、緑、及び青の色成分(RGB)に対応するデジタル値を含む。本発明は、各バンドが電磁スペクトルに対応する任意のマルチバンド画像に適用可能である。本発明は、グレースケール画像(シングルバンド)と併せて利用することも可能である。各ピクセルアレイはn行m列を含み、ピクセルp(1,1)で始まり、ピクセルp(n,m)で終わる。画像を表示又は印刷する場合、CPU12は、対応する画像ファイル18をメモリ16から検索し、場合によっては、一般に既知のように、画像ファイル18内のピクセルのデジタル値に応じてモニタ20又はプリンタ22を動作させる。
画像操作において、CPU12は、記憶されている画像ファイル18のピクセルのRGB値を解析して、例えば、画像内の一定反射率領域を識別して単一の有形物を識別する等の様々な目的を達成するように動作する。本発明の基本的発見の基礎をなす基本観察は、画像が2つの成分、すなわちマテリアル及び照明を含むことである。画像内のすべての変化は、これらの成分のうちの一方又は他方によって生じる。CPU12により記憶されている画像ファイル18の、モニタ20上に表示にされて人間の目に見えるものは、例えば、デジタルカメラ14により撮影されたシーン内の有形物の鏡面反射特性及び内部反射特性と、写真が撮影された時間に存在した照明域内の照明束との相互作用により生じるピクセル色値である。照明束は周辺光源及び入射光源を含む。入射光源は、影を生じさせる光であり、影の周長の外側に見られる。周辺光源は、影の明るい側及び暗い側の両方に存在する光であるが、暗い領域内においてより知覚することができる。
照明域内の入射光源すなわち直接光源と周辺光源との相互作用により生じるスペクトルシフトの認識を通して、マテリアル側面と照明束とを区別するようにコンピュータシステム10を動作させることができる。マテリアル及び照明のうちの一方が画像内で分かっている場合、他方を容易に推定することができる。入射光源及び周辺光源のスペクトルは、互いに異なり得る。実際に、周辺光源のスペクトルは、相互反射の影響によりシーン全体を通して変化し得る。相互反射がない場合、影により生じるスペクトルシフト、すなわち、入射光源の強度の低減は、画像内に示されるシーンに存在する、異なるマテリアルにわたって不変である。
本発明の一特徴によれば、画像内の一定反射率エリアを識別し、それにより、単一の有形物を識別するために、トークン解析を使用することができる。線形トークンは、画像の連結領域を含む非均質トークンであり、連結される領域の隣接ピクセルは、正の傾きに沿って暗端(影内)から明端(照らされる端)までRGB空間内のシリンダ内に入る、異なる色測定値を有する。シリンダ構成は、色変化が、画像に示されるシーンの単一のマテリアルにわたって影を形成している照明の変化(すなわち、照明域内の入射すなわち直接光源と周辺光源との相互作用としての入射光源の強度の低減)によるものである場合、本発明の一特徴により二光源二色性反射モデル(BIDRモデル)により予測される。線形トークンの説明、識別、及び使用のために、BIDRモデルは、I(x,y,z,θ,φ,λ)=c(λ)l(λ)γ+M(λ)c(λ)として記述することができる。式中、I(x,y,z,θ,φ,λ)は、波長8の方向2、Nでの(x,y,z)における表面点の放射輝度であり、c(λ)は、波長8での表面の幾何学的形状から独立した内部反射率であり、l(λ)は、波長λでの入射光源であり、γは、影係数Sx,y,zと幾何学的係数m(θ)との積であり、M(λ)は、入射光源を除いた、周辺光源と半球上の幾何学的内部反射率との積である。
BIDRモデルのより詳細な考察については、2006年1月27日に出願された「Bi-illuminant Dichromatic Reflection Model For Image Manipulation」という名称の同時係属中の米国特許出願第11/341,751号明細書を参照する。これは、参照により本明細書に援用される。
これより図3を参照して、画像内の線形トークンを識別するフローチャートを示す。ステップ100において、CPU12に、処理のために画像ファイル18が与えられる。CPU12は、線形トークン識別に向けて画像内の各ピクセルをテストする。ステップ102において、現在のピクセルについて、CPU12は、現在のピクセルの周囲の局所エリアをテストして、現在のピクセル及びその近傍ピクセルが、BIDRモデルにより予測されるRGB空間内の線形セグメントすなわちシリンダ(BIDRシリンダ)内に入るか否かを判断する。図4は、本発明の一特徴により、γ=0(完全に影になる)からγ=1(完全に照らされる)まで簡易二光源二色性反射モデルの実行により決定される、完全に影になった色値から完全に照らされた色値までの単一のマテリアルの色のRGB色空間でのグラフを示す。図4に示すように、BIDRモデルは、影、光、及び半影内の特定のマテリアルの測定色がすべて、RGB空間(図4に示される立方体)内の線に沿って延在することを予測する。
実際には、録画に使用されるカメラ又は他のセンサは、通常、ノイズを有し、画像内のマテリアルで完全に均等な色のものはない。したがって、表面の外観値は、マテリアル及びイメージングセンサノイズ特性のばらつきにより決まる幅を有するシリンダ内に入る。本発明のBIDRモデルにおいて考慮される入射光源及び周辺光源により内部反射を表すシリンダは、シーン内のあらゆる固有色に一意の開始場所を有する。開始場所は、周辺照明と内部色との積によって決まり、RGB空間内のシリンダの傾きは、入射照明と内部色との積によって決まる。
図5a及び図5bは、エラーバウンドがシリンダを形成する、完全に影になった色値から完全に照らされた色値までのマテリアルの色を示すRGB空間でのグラフである。図5aでは、シリンダは、BIDRモデルにより予測されたRGB線の周りに示され、シリンダ直径の寸法は、録画に使用される記録装置のノイズ及びばらつきの関数である。
図5bは、完全に影になった端での同じ絶対距離が、線の完全に照らされた端での線からの同じ絶対距離よりも実際には大きな色差を表すことを認めた円錐形状のシリンダを示す。これは、影端でのカラーバンド強度の大きさが、影端での線からの実際距離の、明端よりも大きい割合であることによる。例えば、シリンダの影端(RGB)=(5,6,8)での色及び明端での色(100,120,160)を考える。CPU12が、両方の色値から赤色に向けてそれぞれ10単位分、色値を変更する場合、その結果は、影色値(15,6,8)及び明色値(110,120,160)である。暗端では、色は明らかな青色から明らかな赤色にシフトしたのに対して、明端では、色は青のままである。この差を補償するために、同じ大きさの色変更が、それに対応して線から的確な絶対距離を有するように、影端を狭め、明端を広げるような調整がシリンダに対して行われる。
近傍ピクセルセットが、例えば、図5bに示すようなRGB空間内のシリンダを画定する場合、CPU12はそのピクセルセットを線形トークンとして指定する。その理由は、BIDRモデルにより予測されるように、そのようなピクセルセットの色値が、投げかけられた影による入射光源量の変化又は単一のマテリアル上のシーンジオメトリ変化によるものであり得るためである。しかし、そのようなシリンダは、一定照明下でのあるマテリアルから別のマテリアルへの遷移によっても生じ得る。あるマテリアルから別のマテリアルへの遷移によって生じるシリンダは、後述するいくつかのフィルタリングステップの実行を通して識別される。CPU12は、画像内の各ピクセルに対してステップ102を繰り返して、画像内の線形トークンセットを識別する。
ステップ104、106、107、108、109は、CPU12が、ステップ102において識別された線形トークンセットが実際に単一のマテリアルにわたる影によるものであることを確認するために実施することができる任意のフィルタである。ステップ104において、CPU12は、任意に、2つの空間的に隣接するピクセルの差が、線形トークン内の最も明るいピクセルと最も暗いピクセルとの差の選択された割合よりも大きい各識別線形トークンをフィルタリングして除去する。半影の影は、一般に、最暗から最明への漸進的な変化を示すため、半影内の任意の2つの空間的に隣接するピクセル間の割合変化は比較的小さいはずである。これとは対照的に、ピントがはっきりと合った画像内の2つのマテリアル間の遷移は非常に急激であることが多く、1、2、又は3つのピクセルの空間で行われる。
ステップ106において、CPU12は、任意に、不合理な光源を示唆する傾きを有する線形トークンをフィルタリングして除去する。周辺光源は、スペクトル比S=D/(B−D)により測定することができる。式中、Dは、画像内のピクセル対の暗ピクセルを表し、Bは明ピクセルを表す。スペクトル比は、異なるマテリアル、照明変化、又はこれらの両方に起因し得る画像内に示されるシーンの2つのエリアの色又は強度の差に基づく比である。
画像の照明束による固有のスペクトル比又は光源比を求める自動化されコンピュータ化された方法が、2006年1月27日に出願された「Method and System For Identifying Illumination Flux In An Image」という名称の同時係属中の米国特許出願第11/341,742号明細書に開示されており、これは参照により本明細書に援用される。
BIDRモデルに関してスペクトル比S=D/(B−D)を記述すると、S=M(λ)c(λ)/([c(λ)l(λ)γ+M(λ)c(λ)]−M(λ)c(λ))である。式中、λは画像内のカラーバンドセットを表す。この式はS=M(λ)/l(λ)γに変形される。γはスカラーであるため、スペクトル比での異なるカラーバンド、例えばRGB値の相対的な割合は一定である。したがって、画像内の所与の直接光源及び周辺光源の対に関して、Dがγ=0を有するものと仮定され、かつ明ピクセルBがいくらかの入射光源を受けている場合、正規化されたスペクトル比は、同じマテリアルに対応するすべての明暗ピクセル対に対して一定である。したがって、スペクトル比は、BIDRモデルにより、色補正調整のためのピクセル値処理のベースとして、例えば、図5bに示されるような色補正シリンダ内に入る色調整の予測として利用することができる画像の特性及び特徴の表現である。
経験的観察は、最も飽和した周辺光源が、例えば、0.8以下の比を有することを示す。0.8を超えるいかなる値も、色変化が照明によってのみ発生した可能性が低く、厳密にマテリアル変化或いはマテリアル変化及び照明変化の組み合わせにより発生したことを示す。したがって、例えば、0.8を超える比を有する識別線形トークンは、識別線形トークンからフィルタリングされて除外される。飽和閾値は、比を決定するために使用される測定の的確性に基づいて調整することができる。
ステップ107において、CPU12は、任意に、「フィンガ」テストに不合格の線形トークンをフィルタリングして除去する。フィンガフィルタリングは、線形トークンにより測定される局所画像勾配全体に直交するピクセルのピクセル色値を解析して、略一定の色値がいずれかの方向に現れているか否かを判断することを含む。シーン内のポイントでの色のサンプリングではなく、ピクセルは、ある小さなエリアの平均色を測定する。マテリアル境界は鮮鋭である傾向を有し、2つのマテリアルの鮮鋭な境界では、ピクセルは2つのマテリアルのいくらかの部分で重複する可能性が高く、そのピクセルの色は2つのマテリアルの割合に依存する。解析がマテリアル境界に沿って移動する場合、境界に沿った隣接ピクセルは、2つのマテリアルの異なる割合を有し、ひいては異なる色を有する可能性が高い。図3bはこの特性を示す。照明境界では、解析が線形トークンにより取り込まれた画像勾配に直交して移動する場合、通常、照明遷移はマテリアル遷移よりも減衰されるため、通常、色は略一定のままである。
本発明の一特徴によれば、フィンガテストは、線形トークンの周縁に沿った各ピクセルの解析を含む。まず、線形トークンにより取り込まれる主要画像勾配の方向が測定される。次に、線形トークン上の各周縁ピクセルについて、CPU12はピクセルの色を記録する。その後、CPU12は、直交からいずれかの方向に例えば45度離れるいくらかのばらつきを許して、測定された画像勾配におおよそ直交する方向においてピクセルを調べる。おおよそ直交する方向でのピクセルのいずれかが、対象周縁ピクセルとおおよそ同じ色である場合、CPU12は解析のフォーカスをそのピクセルに移す。新たにフォーカスされたピクセルから解析が続けられ、元の周縁ピクセルと同じ色の予め選択された数の略直交するピクセルが識別され(て、フィンガが確立され)るまで、これらのステップが繰り返される。このルーチンは、線形トークンの各周縁ピクセルに対して繰り返される。周縁ピクセルのすべてが所定の長さのフィンガを有する場合、線形トークンは受け入れられる。この点において、完全に水平、垂直、又は斜めのフィンガはいずれも、センサのピクセル格子間とマテリアル境界とが偶然に位置合わせされたことによるものであり得る。したがって、任意の完全に水平、垂直、又は斜めのフィンガを有する線形トークンは、拒絶するか、又は低信頼スコアを与えることができる。
線形トークンは、照明又はマテリアルのいずれかが変化しているロケーションで発生する。変化が、波打った表面上又は複数の葉により投じられる影からの斑になった照明等の繰り返し変化している照明によるものである場合、波の明端上の線形トークンの母集団は、暗端上の線形トークンと同様である。したがって、波の中間にある線形トークンAは、明端及び暗端上の線形トークンと同様の母集団を有する。一方、マテリアル境界を交差する線形トークンは、一般に、いずれの端上の線形トークンとも同様の母集団を有さない。それに代えて、一方の母集団が1つのマテリアルに対応し、トークンの他方の端での母集団は第2のマテリアルに対応する。ステップ108において、CPU12は、サポートフィルタリングを使用し、マテリアル差を使用して、マテリアル境界を交差する線形トークンをフィルタリングして除去する。
このために、画像内の線形トークンAを考える。画像内でAの一端に近いが、画像のAと同じエリアに交差しないトークンのセットは母集団Bとなる。画像内でAの他端に近いが、Aと同じエリアに交差しないトークンのセットは母集団Cになる。母集団B及びCを画定するエリアは、マスクを使用して、又は線形トークンAの一端に相対する距離及び向きを使用して計算することができる。境界は湾曲する可能性があり、又は線形トークンAに直交して位置合わせされない可能性があるため、2つ以上のマスクを使用することも可能であり、その場合には、すべてのマスクの出力を使用してフィルタリング判断が下される。
その後、CPU12は、母集団B及びCを特徴付けて比較するように動作する。特徴付けの一方法は、平均シフトアルゴリズム又はRANSACアルゴリズム等の当該技術分野において既知の他の方法を使用して、母集団内の最大の複数の線形トークンに適合するRGB空間内の傾き及び交点を識別する。特徴付け後、母集団B及びCが互いと同様の傾き及び交点を有し、かつ線形トークンAと同様の傾き及び交点を有する場合、線形トークンAはいずれかの側にサポート領域を有すると言える。いずれの側にもサポート領域を有さない線形トークンは、潜在的なマテリアル境界としてフィルタリングして除去することができる。
ステップ109において、線形トークンは、任意に、線形トークン内の最も鮮鋭なエッジのロケーションによりフィルタリングすることができる。線形トークン内のすべての隣接ピクセル間のRGB空間での差が測定される。この最大差が線形トークンの中央付近で発生する場合、線形トークンはセンタリングされていると言え、フィルタリングにパスする。センタリングされたトークンについてのフィルタリングは、サポートフィルタリングをより効果的にする。
ステップ102、104、106、107、108、109のフィルタリング動作の完了後、CPU12は、画像の線形トークンのセット又は群を出力する(ステップ110)。
図6は、トークン群を使用して一定反射率領域を識別するフローチャートを示す。ステップ200において、CPU12に、画像ファイル18からの画像エリアが与えられる。ステップ202において、CPU12はトークンリスト及びトークングラフを計算する。トークンリストの生成は、上述した図3aのルーチンの実行を通して識別される線形トークンに加えて、2006年1月27日に出願された「Method and System For Identifying Illumination Flux In An Image」という名称の同時係属中の米国特許出願第11/341,742号明細書に教示されているような均等トークンの識別を含むことができる。トークングラフは、CPU12により識別されたトークン間の近傍関係、例えば、対象トークンの20ピクセル内のすべてのトークンを示すグラフである。トークン群は影の長さに沿って、又は波打った表面にわたって延在することができるため、グラフを使用して、対象トークンの近傍にある類似するトークンを識別することができる。トークングラフを生成する方法は、同時係属中の米国特許出願第11/341,742号明細書において開示されている。
ステップ202の完了後、CPU12は、トークングラフの近傍のすべての対を調べて、近傍トークン間の変化が照明変化によるものであるか否かを評価する(ステップ204)。調査は1組のテストを含む。第1のテストでは、CPU12は、1つの近傍トークンがすべてのカラーバンドにおいてその他の近傍トークンよりも暗いか否かを判断する。
第2のテストにおいて、CPU12は、より明るいトークン色をより暗いトークン色に結びつける線が、トークン色を示している色空間の原点に近づいているか否かを判断する。CPU12は、原点とより暗いトークン色値とを結ぶ線と2つのトークン色値を結ぶ線との角度を計算することにより近接関係を評価する。角度が閾値、例えば10度よりも大きい場合、2つのトークン間の変化はマテリアル変化であると考えられる。このテストは、上述したスペクトル比飽和フィルタと同様である。
第3のテストにおいて、CPU12は、2つの領域間の境界ピクセル対に沿った反射率比Ri=(AiBi)/(Ai+Bi)がわずかな分散を有するか否か、及び0に近いか否か(ノイズ許容差内で)を判断する。
ステップ204の完了後、CPU12は、近傍トークンが、ステップ204において求められた可能な照明変化によりリンクされ、トークンの色値がRGB空間内にシリンダ(BIDRシリンダ)を画定するトークン群を探してトークンリストを探索する(ステップ208)。トークン群は、トークングラフにおいて示される近傍関係に従って編成することができる。平行して、CPUは、画像の固有の局所スペクトル比のセットを計算することができる(ステップ206)。照明境界は、上述したように、入射光源と周辺光源との相互作用によって生じるため、照明変化に関連する画像全体を通してのスペクトル比は、境界の明るい側の色又はマテリアル特徴に関係なく一貫しておおよそ等しいはずである。したがって、本発明のトークン群解析においてスペクトル比が、シーンの固有のスペクトル比におよそ等しい場合、これは、トークン間で変化している色値が実際に照明に起因するものであることを示すものである。
2006年1月27日に出願された「Method and System For Identifying Illumination Flux In An Image」という名称の同時係属中の米国特許出願第11/341,742号明細書において教示されるように、画像の特徴比の的確性及び正確性を向上させるために、照明境界のスペクトル比情報は局所レベルで求められる。すなわち、光源比、画像内に示されるシーンのいくつかの予め選択された各局所エリアについて求められる。次に、境界の解析は、画像内の境界の特定のロケーションのスペクトル比を利用して実行される。局所的に関連するスペクトル比を求めることは、現実世界の画像で直面し得る複雑性、例えば、室内の異なるいくつかの光源の相互作用、相互反射等に対応する。同時係属中の出願の教示によれば、局所スペクトル比は、画像の局所エリアの動的サンプリングによりコンピュータシステム10により自動的に求められて、画像の空間−スペクトル特徴、すなわち、照明束を示す状況を含む特徴が識別される。
上述したように、スペクトル比はS=D/(B−D)である。ステップ210において、CPU12は、識別された各トークン群のピクセルのスペクトル比を計算することができる。トークン群は空間的に隣接するトークンの集まりを含み、これらトークンはすべてRGBシリンダ上にある。比の明色及び暗色は、トークン群内で最も明るいトークン及び最も暗いトークンの色である。トークン群のスペクトル比が、トークンロケーションの固有のスペクトル比と大幅に異なる場合、そのトークン群により表されるRGBシリンダは、照明変化のみに対応するものではない可能性があるため、その群を拒絶することができる。
ステップ212において、CPU12は、任意に、類似するトークン群をクラスタ化し併合することができる。クラスタ化のために、CPUは、2つのトークンの距離をd=2つのBIDRシリンダの傾き間のユークリッド距離+0.5*(シリンダ1の明端ピクセルからシリンダ2の軸までの距離+シリンダ1の暗端ピクセルからシリンダ2の軸までの距離+シリンダ2の明端ピクセルからシリンダ1の軸までの距離+シリンダ2の暗端ピクセルからシリンダ1の軸までの距離)+0.5*(|シリンダ1の明ロケーション−シリンダ2の明ロケーション|+|シリンダ1の暗ロケーション+シリンダ2の暗ロケーション|)として定義する。次に、CPUは、リーダ−フォロア(leader-follower)(オンライン)クラスタ化又は階層凝集型クラスタ化等の当該技術分野において周知の任意のクラスタ化アルゴリズムの1つ又はこのような任意の方法の組み合わせを実行する。クラスタ化の目標は、クラスタ内の任意の2つのトークン間の最大許容距離が小さな閾値に設定されるように、非常に類似するトークンを一緒に群化することである。
クラスタ化の結果は、各クラス内のすべてのトークン間に高度の類似性があり、かつ各トークン群が、変化する照明下での単一のマテリアルを表すように編成されたトークン群のセット又はクラスである。クラスタ化の結果として特定の群内で見つけられるすべてのトークンは、同じ色の遷移、例えば緑色表面上の周辺光から50%入射照明への偏移を表すべきである。
ステップ214において、ステップ212のクラスタ化を介して求められた各トークン群について、CPU12は、トークンが、BIDRモデルにより予測される単一のマテリアルの画像内の照明変化を表すものと仮定する。CPU12は、入射すなわち直接光源を推定するか、又は直接光源が白色であると仮定する。入射光源の推定は、通常、今日の市販のカメラに内蔵されるホワイトバランスアルゴリズムを通して得ることができる。白色入射光源を仮定すると、スペクトルは均等(1,1,1)である。次に、CPU12は、トークン群内のピクセルにより示される物体のマテリアル色を計算することができる。
マテリアル色、光源、及びピクセル画像値は、以下のように関連する:画像値=マテリアル色*光源。したがって、トークン群内のピクセル(トークン群は、本発明のBIDRモデルによる単一のマテリアルにわたる影の表現である)は、画像内の単一のマテリアルにより示される一定反射率領域の正確な色を決定するベースを提供する。CPU12による出力(ステップ216)は、識別されたトークン群の解析を通して識別されたマテリアル域を示すものである。
図7は、本発明の一特徴により線形トークン及びBIDRシリンダを使用して、画像の一定反射率領域を識別するフローチャートである。ステップ218において、CPU12に画像エリアが与えられる。ステップ220において、線形トークンが、図3のステップ100−110(任意のフィルタリングステップ104−109のうちの任意のステップを含む)を通して識別される。ステップ222からのスペクトル比の局所推定を使用して、任意に、ステップ224において、線形トークンをさらにフィルタリングすることができる。
ステップ226において、類似する線形トークンが一緒に群化される。クラスタ化のために、CPUは、2つの線形トークン間の距離をd=2つのBIDRシリンダの傾き間のユークリッド距離+0.5*(シリンダ1の明端ピクセルからシリンダ2の軸までの距離+シリンダ1の暗端ピクセルからシリンダ2の軸までの距離+シリンダ2の明端ピクセルからシリンダ1の軸までの距離+シリンダ2の暗端ピクセルからシリンダ1の軸までの距離)+0.5*(|シリンダ1の明ロケーション−シリンダ2の明ロケーション|+|シリンダ1の暗ロケーション+シリンダ2の暗ロケーション|)として定義する。次に、CPUは、リーダ−フォロア(オンライン)クラスタ化又は階層的凝集型クラスタ化等の当該技術分野において周知の任意のクラスタ化アルゴリズムの1つ又はこのような任意の方法の組み合わせを実行する。クラスタ化の目標は、クラスタ内の任意の2つの線形トークン間の最大許容距離が小さな閾値に設定されるように、非常に類似した線形トークンを群化することである。
クラスタ化の結果は、各クラス内のすべての線形トークン間に高度の類似性があるように編成された線形トークンのセット又はクラスである。クラスタ化の結果として特定の群内に見つけられるすべての線形トークンは、同じ色遷移、例えば緑色の表面上の周辺光から50%入射照明への色遷移を表すべきである。
ステップ228において、各線形トークン群が調べられ、CPU12は、群内のすべての線形トークンを包含するRGB空間内のBIDRシリンダを計算する。各群について、線形トークンは、ステップ230において、標準領域成長のためのシードピクセルとして使用される。領域成長は、当該技術分野において周知の技法である。領域はシードピクセルから成長し、メンバシップ基準は、追加のピクセルが計算されたBIDRシリンダ内になければならないというものである。
次に、CPU12は重複領域を群化する(ステップ231)。領域が大きな重複を有する場合、同じマテリアルの現れである可能性が高い。ある線形トークン群は、例えば、相互反射からの緑色周辺光を有する影になった緑色から入射に照らされた緑色への遷移を記述することができ、別の線形トークン群は、例えば、青色天空光周辺光を有する影になった緑色から入射で照らされた緑色への遷移を記述することができる。2つの領域は、緑色マテリアル上の異なる照明遷移を記述し、入射で照らされた領域において重複する。領域を群化するために十分な重複は、例えば、少なくとも10%のピクセルが他方の領域内にもある領域として定義することができる。
ステップ232において、各領域群について、すべてのバリエーションが照明によるものである、すなわち、領域群がすべて1つのマテリアル上にあるものと仮定される。個々の各領域は、そのマテリアル上のある周辺色から入射照明への遷移のいくらかの部分を記述し、重複する領域群が、異なるスペクトルを有する可能な複数の周辺光源がある、変化する照明条件下での単一のマテリアルの検出を提供する。各領域群について、マテリアル色は、領域内の最も明るい色として、又は例えば、95パーセンタイルの輝度値を有するピクセルの色として推定することができる。次に、単純な関係:画像色=マテリアル色*照明色により、領域群にわたる照明色を求めることができる。これにより、照明域及びマテリアル域が生成される(ステップ234)。
図8は、本発明の一特徴によりN次トークンを使用して、画像の影になった領域及び照らされた領域を識別するフローチャートである。ステップ300において、CPU12に、画像ファイル18のエリアの均等トークンリストが与えられる。均等トークンは、領域全体を通しておよそ一定(例えば、記録機器の予想ノイズマージンによって決まる範囲内)のピクセル値を有する画像の連結領域である。CPU12は、シード内のピクセルの中の一致したピクセル値を探してシード、例えば、ピクセルアレイをテストすることにより均等トークンを識別し、シードが一致値テストに合格した場合、シードを成長させることができる。均等トークン識別のより詳細な説明は、2006年1月27日に出願された「Method and System For Identifying Illumination Flux In An Image」という名称の同時係属中の米国特許出願第11/341,742号明細書において開示されている。
ステップ302において、固有の局所スペクトル比がCPU12により識別される。ステップ304において、CPU12は、固有のスペクトル比に整合する均等トークンのすべての近傍対を識別する。すなわち、CPU12は、対の各トークンから1つずつのピクセル対がスペクトル比S=D/(B−D)が固有のスペクトル比に等しいか否かを判断する。任意のこのようなトークン対は、影内のトークン及び照らされたトークンを表し、このような各対は2次トークンを含む。ステップ306において、CPU12は、均等トークンの整合する対のピクセルからトレーニングセットを作成する。影内のトークンからのピクセルは(−1)とラベリングされ、照らされているトークンからのピクセルは(1)とラベリングされる。N次トークン、例えば、影/明関係において互いに整合する2つの2次トークン等を対として使用することができる。
ステップ308において、CPU12は、2次トークン内の影/明トークン対の各ピクセルのベクトルを生成する。ベクトルは、ピクセルロケーション、ピクセルカラー、及びラベル(−1又は1)を含む。各ベクトルは6つの要素:ピクセルロケーション(x,y)、ピクセルカラー(r,g,b)、及びラベル(−1又は1)を有する。ステップ310は、ニューラルネットワーク、サポートベクタマシン、又はk最近傍等の任意の周知の関数あてはめ又は機械学習アルゴリズムにより実施することができる。学習アルゴリズムは、x、y、r、g、及びbの入力に応じて−1又は1を出力する関数を作成する。したがって、画像内の任意のピクセルについて、これらの値を関数に入力し、結果として得られる分類が出力される。ステップ312において、CPUはその関数を使用して、画像のすべてのピクセルを影又は明のいずれかとして分類し、影マスクを出力する(ステップ314)。
図9は、本発明の一特徴により比ラベリングを使用して画像の影になったエリアを識別し補正するフローチャートである。ステップ316において、CPU12に、画像ファイル18及び画像ファイル18の固有のスペクトル比が与えられる。ステップ318において、CPU12は、影内であり得る画像のすべてのピクセルを識別する。識別は、CPU12が個々の各ピクセルを一度に1つずつテストして、対象ピクセルが影内にあるのに十分に暗いか否か、例えば、画像の強度範囲の50%未満の強度レベルであるか否かを判断することにより実施することができる。ステップ320において、おそらく画像内の影内にあるのに十分に暗いと判断される各ピクセルについて、CPU12は、画像エリアの所与の固有のスペクトル比に整合又は厳密に整合する対象暗ピクセルとのスペクトル比を有する任意のより明るいピクセルを探して、対象ピクセルの周囲の画像の近傍エリア、例えば30×30平方のピクセルを探索する。2つ以上のより明るいピクセルが整合する場合、CPU12は、固有のスペクトル比に相対するエラー量又はより明るいピクセルの輝度により、より明るいピクセルのセットを順序づけることができる。最良の整合(固有のスペクトル比及び最も明るいピクセルに最も近い)又は順序付きのより明るいピクセルの重み付き平均を、対応する暗ピクセルと共に比ラベル対として使用することができる。
ステップ322において、CPU12は、影ピクセルとして各比レベルの各暗ピクセルをマークし、画像のすべての影ピクセルを含む影マスクを出力する(ステップ324)。あるいは、ステップ326において、CPU12は、暗ピクセルの色及び強度を対応する比ラベル対内の明ピクセルの色及び強度に変更することにより、影ピクセルとして指定された各ピクセルを変更するように動作することができる。ステップ328において、CPU12は影のない画像を出力する。
図10は、本発明の一特徴により画像内の照明勾配を識別するフローチャートである。照明勾配は、直接すなわち入射光源が測定可能な程度で変化している画像の比較的小さなエリアである。照明勾配が存在する画像のエリアの例は、影のうちの半影及び円柱体の湾曲した表面である。ステップ400において、CPUに、画像ファイル18及び画像の線形トークンセットが与えられる。所与のセットの線形トークンは、図3のルーチンの実行を通してCPU12により識別することができる。ステップ402において、線形トークンリスト内の各線形トークンについて、CPU12は、標準領域成長でのように、RGBシリンダに沿ったピクセルへの類似性に関して線形トークンに隣接するピクセルを調べることにより、線形トークンを成長させる。
ステップ404において、CPU12は、成長したシリンダの明端及び暗端を推定する。CPU12により求められる大半の線形トークンは、完全に照らされたピクセルを完全な暗ピクセルに連結しない。線形トークンが成長するにつれて、ステップ402において、線形トークンにより画定される線に沿った領域内のピクセルの範囲は、より明るい端及びより暗い端に向かって成長する傾向を有する。成長した線形トークンの最も明るい端のピクセル及び最も暗い端の各ピクセルをとることにより、それはシリンダの真の長さを過大に予測しがちである。したがって、推定は、例えば、90パーセンタイルの輝度値を有する成長した領域内のピクセルを明端ピクセルとして含み、10パーセンタイルの輝度値を有するピクセルを暗端ピクセルとして含む。
明端及び暗端を基準点として使用して、CPUは、RGBシリンダの部分を半影として選択する(ステップ406)。半影は、完全な影領域(周辺照明のみ)と入射光源による完全な照明領域との間の部分的な影である。半影は、完全照明と周辺照明との間の遷移領域である。成長したシリンダの長さを範囲[0,1]内の数として設定し、部分[0.3,0.7]を半影部分として選択することにより、半影を推定することができる。
ステップ408において、成長したシリンダの選択された半影の中央内のピクセルから開始して、CPU12は、半影内に入る連結領域内のすべてのピクセルを見つける。ステップ410において、CPU12は、連結エリア内で見つけられたすべてのピクセルをマークする。成長したシリンダ内では、成長した領域内の半影部分を暗領域又は明領域と分離できることが予期される。半影内で連結領域を見つけるための元のシードピクセルは、成長前に、元の線形トークン(選択された半影の中央)内から選択される。暗エリア又は明エリアによる分離により断続エリアがある場合、ステップ402−410を介してテストされた別の線形トークンが、省かれたピクセルをマークすることができる。ステップ412において、CPU12は、すべての線形トークンの処理に基づいて、2つ以上のマークを有するすべてのピクセルを照明勾配としてラベリングし、照明勾配により示される照明エッジについての情報を出力する(ステップ414)。
図11は、本発明の一特徴により照明勾配を使用して画像内のマテリアルエッジを識別するフローチャートである。照明勾配が、図10のルーチンの実行を通してCPU12により識別されると、照明勾配を使用して、マテリアルエッジを識別することができる。上述したように、本発明の重要な観察によれば、画像は2つの成分、すなわち、マテリアル及び照明を含む。画像内のすべての変化は、これらの成分のうちの一方又は他方によって生じる。これらのうちの一方が分かっている場合、他方を決定することができる。図11のルーチンは、この原理を利用して、画像内のマテリアルエッジを識別する。ステップ416において、CPUに、画像ファイル18等の入力画像が与えられる。平行して、CPU12は、ステップ418及び420のそれぞれにおいて、標準エッジ検出器を実行させて、画像内のすべてのエッジを識別するとともに、図11のルーチンを実行して、照明変化による画像のエッジに対応する照明勾配を識別する。
ステップ422において、CPU12は、照明勾配情報をフィルタとして使用して、各エッジを照明勾配情報と比較することにより、標準エッジ検出器により決定された、照明変化によるエッジをマスクアウトする。結果は、マテリアルエッジ情報の出力である(ステップ424)。
上記明細書において、本発明を特定の例示的な実施形態及びその例を参照して説明した。しかし、添付の特許請求の範囲に記載される本発明のより広い趣旨及び範囲から逸脱することなく、それらに対して様々な修正及び変更を行うことが可能なことが明らかであろう。したがって、本明細書及び図面は、限定の意味ではなく例示として見なされるべきである。
画像に関連する操作を実行するように準備され構成されるコンピュータシステムのブロック図である。 図1のコンピュータシステムに記憶される画像のn×mピクセルアレイ画像ファイルを示す。 本発明の一特徴により画像内の線形トークンを識別するフローチャートである。 マテリアル境界の画像及び境界のピクセル値を示す。 本発明の一特徴による簡易二光源二色性反射モデルの実行により決定される完全に影になった色値から完全に照らされた色値までのマテリアルの色を示すRGB色空間でのグラフである。 本発明の一特徴による二光源二色性反射モデルの実行により測定される、エラーバウンドがシリンダを形成する、完全に影になった色値から完全に照らされた色値までのマテリアルの色を示すRGB色空間でのグラフである。 本発明の一特徴によりトークン群を使用して画像の一定反射率領域を識別するフローチャートである。 本発明の一特徴により線形トークンを使用して画像の一定反射率領域を識別するフローチャートである。 本発明の一特徴によりN次トークンを使用して画像の影領域及び明領域を識別するフローチャートである。 本発明の一特徴により比ラベリングを使用して画像の影エリアを識別し補正するフローチャートである。 本発明の一特徴により画像内の照明勾配を識別するフローチャートである。 本発明の一特徴により照明勾配を利用して画像内のマテリアルエッジを識別するフローチャートである。

Claims (16)

  1. 画像内の照明域を決定する自動化されコンピュータ化された方法であって、
    前記画像内の線形トークンを識別するステップと、
    前記線形トークンを利用して、照明域を識別するステップと
    を含む、方法。
  2. 前記線形トークンを識別するステップは、選択されたピクセルの周囲の局所エリアをテストして、RGB空間にシリンダを形成する線形セグメントの構造を決定することにより実行される、請求項1に記載の方法。
  3. 前記線形トークンを識別するステップは、そのような各線形トークンが前記画像内の照明変化に対応することを確認するために、識別された各線形トークンをフィルタリングすることを含む、請求項1に記載の方法。
  4. 前記線形トークンを利用して、照明域を識別するステップは、画像の線形トークンをクラスタ化してトークン群にし、各トークン群のマテリアル色を計算することにより実行される、請求項1に記載の方法。
  5. 前記画像の線形トークンをクラスタ化してトークン群にし、各トークン群のマテリアル色を計算するステップは、トークン群のBIDRシリンダを計算することにより実行される、請求項4に記載の方法。
  6. 画像の影/明ピクセルを決定する自動化されコンピュータ化された方法であって、
    前記画像内の均等トークンを識別するステップと、
    前記均等トークンを利用して、前記画像の影/明ピクセルを識別するステップと
    を含む、方法。
  7. 前記均等トークンを利用して、影/明ピクセルを識別するステップは、暗/明トークン対からトレーニングセットを作成し、当該トレーニングセットを利用して、学習関数を実行し、前記画像のピクセルを影又は明として区別する関数を生成することにより実行される、請求項6に記載の方法。
  8. 画像内の影を決定する自動化されコンピュータ化された方法であって、
    前記画像の固有のスペクトル比を計算するステップと、
    前記固有のスペクトル比を利用して、前記画像内の影を識別するステップと
    を含む、方法。
  9. 前記固有のスペクトル比を利用して、前記画像内の影を識別するステップは、予め選択された暗/明ピクセル対のスペクトル比を前記固有のスペクトル比と比較して整合を探すことにより実行される、請求項8に記載の方法。
  10. 画像内のマテリアルエッジを決定する自動化されコンピュータ化された方法であって、
    前記画像の照明勾配を計算するステップと、
    前記照明勾配を利用して、前記画像内のマテリアルエッジを識別するステップと
    を含む、方法。
  11. 画像内の照明域を決定する自動化されコンピュータ化された方法であって、
    前記画像内のトークンを識別するステップと、
    前記識別されたトークンをクラスタ化して群にするステップと、
    トークン群を利用して、照明域を識別するステップと
    を含む、方法。
  12. 前記トークンは均等トークンを含む、請求項11に記載の方法。
  13. 前記トークンは、均等トークン及び線形トークンを含む、請求項11に記載の方法。
  14. 前記識別されたトークンをクラスタ化して群にするステップは、隣接するトークンのスペクトル的及び空間的な関係をテストして、前記画像内の照明変化により連結されたトークンの群を形成することにより実行される、請求項11に記載の方法。
  15. 前記トークン群を利用して照明域を識別するステップは、各トークン群のマテリアル色を計算することにより実行される、請求項11に記載の方法。
  16. 前記各トークン群のマテリアル色を計算するステップは、各トークン群のBIDRシリンダを計算することにより実行される、請求項15に記載の方法。
JP2008552454A 2006-01-27 2007-01-25 画像内の照明域を識別する方法 Active JP4997252B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/341,753 US7995058B2 (en) 2006-01-27 2006-01-27 Method and system for identifying illumination fields in an image
US11/341,753 2006-01-27
PCT/US2007/002236 WO2007089623A2 (en) 2006-01-27 2007-01-25 Method and system for identifying illumination fields in an image

Publications (2)

Publication Number Publication Date
JP2009524884A true JP2009524884A (ja) 2009-07-02
JP4997252B2 JP4997252B2 (ja) 2012-08-08

Family

ID=38322150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008552454A Active JP4997252B2 (ja) 2006-01-27 2007-01-25 画像内の照明域を識別する方法

Country Status (4)

Country Link
US (1) US7995058B2 (ja)
EP (3) EP2752791B8 (ja)
JP (1) JP4997252B2 (ja)
WO (1) WO2007089623A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009543162A (ja) * 2006-06-30 2009-12-03 富士フイルム株式会社 モデルベースの異方性拡散の方法および装置
JP2012525631A (ja) * 2009-04-30 2012-10-22 タンデント ビジョン サイエンス インコーポレーティッド 画像修正のための改良された方法
JP2015501037A (ja) * 2011-11-21 2015-01-08 タンデント ビジョン サイエンス インコーポレーティッド デジタル画像に関する色解析
US9330337B2 (en) 2011-11-21 2016-05-03 Tandent Vision Science, Inc. Color analytics for a digital image

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
US7760912B2 (en) 2007-08-01 2010-07-20 Tandent Vision Science, Inc. Image segregation system with method for handling textures
US8144978B2 (en) * 2007-08-01 2012-03-27 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US20090033755A1 (en) * 2007-08-03 2009-02-05 Tandent Vision Science, Inc. Image acquisition and processing engine for computer vision
US8175390B2 (en) * 2008-03-28 2012-05-08 Tandent Vision Science, Inc. System and method for illumination invariant image segmentation
US7995854B2 (en) * 2008-03-28 2011-08-09 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
US8139867B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Image segregation system architecture
US8139850B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Constraint generation for use in image segregation
US8260050B2 (en) 2008-12-05 2012-09-04 Tandent Vision Science, Inc. Test bed for optimizing an image segregation
JP5517685B2 (ja) * 2009-04-14 2014-06-11 キヤノン株式会社 画像処理装置および方法
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
US8346022B2 (en) * 2009-09-02 2013-01-01 Tandent Vision Science, Inc. System and method for generating an intrinsic image using tone mapping and log chromaticity
US8311338B2 (en) * 2009-09-15 2012-11-13 Tandent Vision Science, Inc. Method and system for learning a same-material constraint in an image
US9563815B2 (en) * 2009-09-15 2017-02-07 Tandent Vision Science, Inc. Method and system for processing an image received from a remote source
US8452109B2 (en) * 2010-01-11 2013-05-28 Tandent Vision Science, Inc. Image segregation system with method for handling textures
US8488900B2 (en) 2010-06-23 2013-07-16 Digimarc Corporation Identifying and redressing shadows in connection with digital watermarking and fingerprinting
JP5772446B2 (ja) * 2010-09-29 2015-09-02 株式会社ニコン 画像処理装置及び画像処理プログラム
US8542917B2 (en) * 2010-11-10 2013-09-24 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US8787662B2 (en) * 2010-11-10 2014-07-22 Tandent Vision Science, Inc. Method and system for identifying tokens in an image
US8913829B2 (en) 2012-06-05 2014-12-16 Tandent Vision Science, Inc. Automatic processing scale estimation for use in an image process
US8842910B2 (en) 2012-08-17 2014-09-23 Tandent Vision Science, Inc. Spatially varying log-chromaticity normals for use in an image process
US8849018B2 (en) 2012-08-17 2014-09-30 Tandent Vision Science, Inc. Log-chromaticity clustering pipeline for use in an image process
US8842907B2 (en) 2012-08-17 2014-09-23 Tandent Vision Science, Inc. Method for performing a multi-clustering merge for use in an image process
US8811732B2 (en) 2012-08-17 2014-08-19 Tandent Vision Science, Inc. Weighted entropy minimization for optimizing a log-chromaticity normal for use in an image process
US8934735B2 (en) 2012-09-07 2015-01-13 Tandent Vision Science, Inc. Oriented, spatio-spectral illumination constraints for use in an image progress
CN105335962A (zh) * 2015-08-31 2016-02-17 中国烟草总公司广东省公司 一种烟田采集图像分割方法
US10198797B2 (en) * 2015-09-09 2019-02-05 Ichikawa Soft Laboratory Co., Ltd. Apparatus correcting shading without taking optical characteristics into consideration and method thereof
CN107845094B (zh) * 2017-11-20 2020-06-19 北京小米移动软件有限公司 图像文字检测方法、装置及计算机可读存储介质
US20230154101A1 (en) * 2021-11-16 2023-05-18 Disney Enterprises, Inc. Techniques for multi-view neural object modeling

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020176023A1 (en) * 2000-01-11 2002-11-28 Bernd Hofflinger Method and apparatus for modifying the color saturation of electronically acquired images
US20060018539A1 (en) * 2004-07-26 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing apparatus, and image processing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100237284B1 (ko) * 1997-04-28 2000-01-15 윤종용 화상신호로부터 조명색을 검출하는 방법
US6469706B1 (en) * 1999-11-16 2002-10-22 International Business Machines Corporation Method and apparatus for detecting regions belonging to a specified color surface in an unsegmented image
JP4649781B2 (ja) * 2001-06-20 2011-03-16 ソニー株式会社 画像処理方法および装置
FR2832528B1 (fr) * 2001-11-22 2004-02-13 Eastman Kodak Co Determination d'un illuminant d'une image numerique en couleur par segmentation et filtrage
US7102638B2 (en) * 2003-03-19 2006-09-05 Mitsubishi Eletric Research Labs, Inc. Reducing texture details in images
WO2006081438A2 (en) * 2005-01-27 2006-08-03 Tandent Vision Science, Inc. Differentiation of illumination and reflection boundaries
US7305127B2 (en) * 2005-11-09 2007-12-04 Aepx Animation, Inc. Detection and manipulation of shadows in an image or series of images
US8976173B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
US8976174B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020176023A1 (en) * 2000-01-11 2002-11-28 Bernd Hofflinger Method and apparatus for modifying the color saturation of electronically acquired images
US20060018539A1 (en) * 2004-07-26 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing apparatus, and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009543162A (ja) * 2006-06-30 2009-12-03 富士フイルム株式会社 モデルベースの異方性拡散の方法および装置
JP4692856B2 (ja) * 2006-06-30 2011-06-01 富士フイルム株式会社 モデルベースの異方性拡散の方法および装置
JP2012525631A (ja) * 2009-04-30 2012-10-22 タンデント ビジョン サイエンス インコーポレーティッド 画像修正のための改良された方法
JP2015501037A (ja) * 2011-11-21 2015-01-08 タンデント ビジョン サイエンス インコーポレーティッド デジタル画像に関する色解析
US9330337B2 (en) 2011-11-21 2016-05-03 Tandent Vision Science, Inc. Color analytics for a digital image

Also Published As

Publication number Publication date
WO2007089623A3 (en) 2008-04-10
EP2546781A3 (en) 2013-02-06
EP1977371B1 (en) 2013-12-11
EP2546781B1 (en) 2016-11-09
JP4997252B2 (ja) 2012-08-08
EP2752791B1 (en) 2019-08-07
EP2546781A2 (en) 2013-01-16
EP2752791B8 (en) 2019-10-30
US7995058B2 (en) 2011-08-09
EP1977371A4 (en) 2011-05-25
EP2752791A1 (en) 2014-07-09
US20070177797A1 (en) 2007-08-02
EP1977371A2 (en) 2008-10-08
WO2007089623A2 (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP4997252B2 (ja) 画像内の照明域を識別する方法
US9053537B2 (en) Classifier for use in generating a diffuse image
US9330337B2 (en) Color analytics for a digital image
US8249342B1 (en) Color analytics for a digital image
US8559714B2 (en) Post processing for improved generation of intrinsic images
US8983183B2 (en) Spatially varying log-chromaticity normals for use in an image process
US8913829B2 (en) Automatic processing scale estimation for use in an image process
US8934735B2 (en) Oriented, spatio-spectral illumination constraints for use in an image progress
US8428352B1 (en) Post processing for improved generation of intrinsic images
EP2776979B1 (en) Post processing for improved generation of intrinsic images
US8842907B2 (en) Method for performing a multi-clustering merge for use in an image process
US8849018B2 (en) Log-chromaticity clustering pipeline for use in an image process
US8811732B2 (en) Weighted entropy minimization for optimizing a log-chromaticity normal for use in an image process
US20130094762A1 (en) System and method for identifying complex tokens in an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111025

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4997252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250