JP2008529169A - 画像内の照明光束を識別する方法およびシステム - Google Patents

画像内の照明光束を識別する方法およびシステム Download PDF

Info

Publication number
JP2008529169A
JP2008529169A JP2007553270A JP2007553270A JP2008529169A JP 2008529169 A JP2008529169 A JP 2008529169A JP 2007553270 A JP2007553270 A JP 2007553270A JP 2007553270 A JP2007553270 A JP 2007553270A JP 2008529169 A JP2008529169 A JP 2008529169A
Authority
JP
Japan
Prior art keywords
image
token
spectral
spectral ratio
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007553270A
Other languages
English (en)
Other versions
JP4857287B2 (ja
Inventor
リチャード マーク フリードホフ
ブルース アレン マックスウェル
ケーシー アーサー スミス
Original Assignee
タンデント ビジョン サイエンス インコーポレーティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タンデント ビジョン サイエンス インコーポレーティッド filed Critical タンデント ビジョン サイエンス インコーポレーティッド
Publication of JP2008529169A publication Critical patent/JP2008529169A/ja
Application granted granted Critical
Publication of JP4857287B2 publication Critical patent/JP4857287B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Abstract

本発明の第1の例証的な実施形態において、画像の照明境界を決定する自動化およびコンピュータ化された方法を提供する。本方法は、画像の予め選択された局所領域において動的サンプリングを実行して、予め選択された局所領域の各々において当該画像のスペクトル比情報を決定するステップと、スペクトル比情報を用いて照明境界を識別するステップとを含んでいる。

Description

関連出願の相互参照
本出願は、2005年1月27日に出願された米国仮出願第60/648,228号および2005年2月3日に出願された米国仮出願第60/650,300号を優先権主張するものであり、それらを本明細書に引用している。
最新のコンピュータ技術の顕著且つ商業的に重要な利用の多くは画像関連のものである。これらには画像処理、画像解析、およびコンピュータ視覚のアプリケーションが含まれる。画像関連の動作を厳密且つ正確に実行するためのコンピュータ利用において、視覚的世界で生じている物理的現象を真に反映および表現するアルゴリズムの開発が課題である。例えば、画像内で影と有体物のエッジを正確且つ厳密に区別する能力をコンピュータに持たせることが科学者にとって長年の課題であった。有形物のエッジを厳密且つ正確に検出しないことには画像に対して他の処理が一切不可能なため、エッジの検出は画像処理の基本的作業である。生じた影と、その影を生じさせる対象とが区別できなければ、コンピュータが対象を認識することは不可能であろう。
対象のエッジ検出における当初の、且つ従来の方式には、画像における明度境界の解析が含まれる。そのような解析において、有形物により生じる境界が鮮明であるのに対し、影により生じた境界は影の半影効果に起因してぼやけているかまたは段階的であると仮定される。この方式は、コンピュータが正確に実行できるアルゴリズムにより実装可能であるが、往々にして結果は正しくない。現実世界では、影が鮮明な境界を形成し、逆に有形物のエッジがぼやけた境界を形成する例が多くある。このように、影およびエッジの認識に従来の技術を利用する際に、影の認識に対して偽陽画および偽陰画が生じる可能性が高い。すなわち、例えば、影を模倣している物体のエッジが、このためにコンピュータにより影または鮮明な影の境界として誤認され、対象の境界として誤って解釈されてしまう。従って、画像に関するコンピュータの動作で利用できる厳密且つ正確な技術の開発が常に必要とされている。
本発明は、視覚的世界で生じている物理的現象を厳密且つ正確に反映および表現する画像技術を含む方法およびシステムを提供する。
本発明の第1の例証的な実施形態において、画像の照明光束を決定すべく自動化およびコンピュータ化された方法を提供する。本方法は、画像の予め選択された局所領域において動的サンプリングを実行して、予め選択された当該局所領域の各々における画像のスペクトル比情報を決定するステップと、当該スペクトル比情報を用いて照明光束を識別するステップを含んでいる。
本発明の第2の例証的な実施形態において、画像の照明境界を決定すべく自動化およびコンピュータ化された更なる方法を提供する。本発明の第2の例証的な実施形態による方法は、画像内でX接合を識別するステップと、識別されたX接合により定められる画像の領域に対するスペクトル比を決定するステップと、スペクトル比を用いて照明境界を識別するステップとを含んでいる。
本発明の第3の例証的な実施形態において、画像の照明光束を決定すべく自動化およびコンピュータ化された方法は、画像の空間スペクトル情報を識別するステップと、空間スペクトル情報を用いてスペクトル比情報を計算するステップと、スペクトル比情報を用いて照明光束を識別するステップとを含んでいる。
本発明の第4の例証的な実施形態において、コンピュータシステムを提供する。本コンピュータシステムは、CPUと、画像ファイルを保存しているメモリとを含んでいる。本発明の特徴に従い、CPUは、画像から空間スペクトル情報を識別するルーチンを実行し、空間スペクトル情報を用いてスペクトル比情報を計算し、計算されたスペクトル比情報を用いて画像の照明光束を識別すべく構成および設定されている。
本発明の第5の例証的な実施形態において、画像における照明情報を決定する自動化およびコンピュータ化された方法は、画像の空間スペクトル情報を識別するステップと、当該空間スペクトル情報を用いて画像のスペクトル比情報を計算するステップとを含んでいる。
本発明の第6の例証的な実施形態において、画像の照明情報を決定する自動化およびコンピュータ化された方法は、画像のスペクトル比情報を計算するステップと、当該画像のスペクトル比情報を用いて画像の照明情報を識別するステップとを含んでいる。
本発明の更に他の実施形態に従い、上述の方法を実行すべく構成された1個以上のコンピュータ(例えば、プログラムされたもの)を含むコンピュータシステムを提供する。本発明の他の実施形態に従い、上述の実施形態を実行すべく実装されたコンピュータ(群)を制御すべく動作可能である、コンピュータが実行可能な処理ステップを保存したコンピュータ可読媒体を提供する。自動化およびコンピュータ化された方法は、デジタル・コンピュータ、アナログ・コンピュータ、光学センサ、状態機械、シーケンサ、あるいは本発明の方法のステップを実行すべく設計またはプログラム可能な任意の機器または装置により実行することができる。
ここで図面、最初に図1を参照するに、画像に関する処理を実行すべく構成および設定されたコンピュータシステム10のブロック図を示す。CPU12は、例えばUSBポートを介してデジタル・カメラ14等の装置に接続されている。デジタル・カメラ14は、カメラ14にローカルに保存されている画像をCPU12にダウンロードすべく動作する。CPU12は、ダウンロードされた画像を画像ファイル18としてメモリ16に保存する。画像ファイル18は、モニター20に表示すべく、またはプリンタ22に印刷出力すべくCPU12からアクセスすることができる。
代替的に、CPUは、例えばデジタル・カメラ14またはロボット等の機器に組み込まれたマイクロプロセッサとして実装することができる。CPUはまた、ロボット動作またはユーザーとの対話的動作と連携して、画像関連のリアルタイム動作を行なうべくリアルタイム・オペレーティングシステムを備えることができる。
図2に示すように、各画像ファイル18はn×mピクセル配列を含んでいる。各ピクセルpは、画像全体の離散的部分に対応する画素である。全てのピクセルが共に画像ファイル18により表現される画像を定義する。各ピクセルは、色帯域の集合、例えば画素の赤、緑、青色要素(RGB)に対応するデジタル値を含んでいる。本発明は、各帯域が電磁気スペクトルの一部に対応する任意の多帯域画像に適用可能である。本発明はまた、単一のパンクロマティック帯域を用いて、グレイスケール画像(単一帯域)と連携して利用することもできる。ピクセル配列は、各々m列を有するn行を含んでおり、ピクセルp(1,1)から始まってピクセルp(n,m)で終わる。画像の表示または印刷に際して、CPU12はメモリ16から対応する画像ファイル18を取り出し、一般に知られる通り画像ファイル18のピクセルのデジタル値の関数として、場合に応じてモニター20またはプリンタ22を動作させる。
画像動作において、CPU12は、例えば被写体画像の有形物エッジ検出等、各種の目的を達成すべく、保存されている画像ファイル18のピクセルのRGB値を解析すべく動作する。本発明の基本的発見の根本をなす基本的所見は、画像が2個の成分、すなわち物体および照明を含んでいる点である。画像における全ての変化は、これらの成分の一方または他方により生じる。これらの成分の一方、例えば照明を検出する方法は、対象のエッジ等、物体または対象の形状を照明から区別する仕組みを提供する。
CPU12により保存された画像ファイル18を表示した際に肉眼に見えるものは、例えばデジタル・カメラ14により撮影されたシーン内にある有形物の鏡面反射および内部反射特性と、その写真が撮影された時点に存在した照明光束との相互作用により生じるピクセル・カラー値である。照明光束は、周辺照明光および入射照明光を含んでいる。入射照明光は、影を生じる光であって、影の周辺部の外側に見られる。周辺照明光は、影の明るい側と暗い側の両方に存在する光であるが、暗い領域の方でより認知しやすい。
画像が2個の成分、すなわち物体および照明を含むという本発明の基本的所見に基づいて、コンピュータシステム10は、例えば対象のエッジと、照明における入射照明光と周辺照明光との間の相互作用により生じるスペクトル・シフトの認識を介した照明光束のように、当該画像の有形態様を区別すべく動作することができる。画像において物体および照明の一方が既知である場合、もう一方を容易に推定することができる。入射照明光と周辺照明光のスペクトルは互いに異なっていてよい。影により生じたスペクトル・シフト、すなわち入射照明光の光度減少は、画像内で描かれたシーンに存在する異なる物体について実質的に不変である。本発明の特徴に従い、このスペクトル・シフト情報は、照明光強度比、すなわち入射照明光と周辺照明光の相互作用により形成されるスペクトル比の測定により検出される。スペクトル比は、画像内で描かれたシーンの2個の領域間における色または光度の違いに基づく比率であり、これは物体の差違、照明の変化、またはその両方により生じ得る。
本発明の基本的発見を実装する一般的なアルゴリズムとして、境界の両側からの画素値が、例えば赤、緑および青である長、中、短波長の3種の光度または色帯域においてサンプリングされる。境界の一方が、全ての色帯域において、もう一方の側より暗い場合、色光度シフトが可能な照明境界であると見なされる。他の色帯域が減少する間、いずれかの色帯域の光度が増加したならば、影は単に照明を遮るだけであるため、当該境界は有形物境界でなければならない。影で生じるような入射から周辺へのシフトは、色帯域を明るくすることとは同時に生起できない。モノクロまたはグレイスケール画像において、単一帯域の光度を用いることができる。
色光度シフトが識別された後で、シフトのスペクトル比が決定される。スペクトル比は多くの方法、例えば、B/D、B/(B−D)、およびD/(B−D)等、多くの方法により定義することができる。ここに、Bはシフトの明るい側の色であり、Dは暗い側の色である。スペクトル比を用いる照明境界の識別の視覚的正確さは、本願と同日出願された、本明細書に引用している同時係属出願第 号(代理人整理番号590.1003)「画像操作のための2照明光2色性反射モデル(Bi−illuminant Dichromatic Reflection Model For Image Manipulation,)」に開示されているように、画像の双照明光2色性反射モデルに基づく解析により決定される。
本発明の好適な実施形態において、比率D/(B−D)の正規化された値が、有形物の向きが様々に異なっていても不変であり、従って異なる向きにある対象の照明境界を越えて比率が一定であることが本発明の開発に際して見出されたため、スペクトル比S=D/(B−D)を用いる。更に、完全に影で覆われたピクセルおよび半影ピクセルにより生じた比率D/(B−D)の正規化された値は、完全に影で覆われたピクセルおよび完全に照らされたピクセルにより生じた正規化された値に等しい。これらの関係は、B/DおよびB/(B−D)の正規化された値には現れない。従って、比率D/(B−D)は、精度および正確さの最適な組合せを提供する。
redが入射またはシフトの明るい側のカラー測定の赤色チャネルであり、一方Dredは暗い側の赤色チャネル値である。同様に、BgreenおよびBblueは各々、シフトの明るい側の緑およい青色チャネル光度を表わし、DgreenおよびDblueは暗い側の緑および青色光度を表わす。シフトのスペクトル比は従ってN次元のベクトル、本例では3次元ベクトルを含んでいる。
V =(Dred/(Bred−Dred),Dgreen/(Bgreen−Dgreen),Dblue/(Bblue−Dblue))
上述のように、本発明の特徴によれば、当該ベクトルは当該ベクトルをベクトル長のスカラー値で除算することにより正規化される。画像の特性スペクトル比または照明光強度比が決定される。入射照明光と周辺照明光との相互作用により照明境界が生じる故に、照明の変化に付随する画像全体にわたるスペクトル比は、明るい側の色または境界の有形物特徴とは無関係に、一貫してほぼ等しい筈である。このように、本解析におけるスペクトル比がシーンの特性スペクトル比にほぼ等しい場合、境界は照明境界として分類される。
画像の特性比の精度および正確さを向上させるべく、照明境界のスペクトル比情報が局所レベルで決定される。すなわち画像内で表現されるシーンの予め選択された数個の局所領域の各々について照明比率が決定される。次いで境界の解析が、画像内の境界の特定の位置のスペクトル比を利用して実行される。局所的に関連するスペクトル比の決定には、現実世界の画像において起こり得る複雑さ、例えば室内のいくつかの異なる光源による相互作用や相互反射等を包含している。
本発明の特徴によれば、画像の空間スペクトル特徴、すなわち照明光束を示す条件を含む特徴を識別すべく、画像の局所領域の動的サンプリングにより、局所スペクトル比がコンピュータシステム10により自動的に決定される。空間スペクトル特徴の例として、X接合がある。X接合とは、有形エッジおよび照明境界が互いに交差する画像の領域である。X接合は、照明光強度比を正確に決定するために最適な位置である。
本発明の更なる特徴によれば、画像のトークン解析を用いて空間スペクトル特徴を識別する。トークンとは、領域のピクセルが空間スペクトル特徴の識別に関連するように互いに関係付けられた画像の連結領域である。トークンのピクセルは、例えばピクセルの色の密な相互関係等の均一要素、またはRGB空間等の色空間において幾何学的に関係付けられた異なる色値等の非均一要素のいずれかの観点から関連付けることができる。個々のピクセルではなくトークンを用いることにより、画像処理における複雑さやノイズが減り、コンピュータシステム10にとってより効率的で負荷が軽減された計算動作を提供する。
本発明の例証的な実施形態において、一様トークン解析を用いて画像内のX接合を識別する。一様トークンとは、領域全体にわたりほぼ一定の画素値(例えば、記録装置の期待ノイズマージンまたは物体における通常の変動により決定される範囲内)を有する画像の連結領域を含んでいる均一なトークンである。1次の一様トークンは、画像の隣接ピクセルのうち単一の安定した色測定値を含んでいる。以下により詳しく述べるように、解析は画像の空間スペクトル特徴を表わすトークンの隣接関係の検査を含んでいてよい。
ここで図3Aを参照するに、本発明の特徴による、図2の画像ファイル内の一様トークン領域を識別するフロー図を示す。識別ルーチンの開始時に、CPU12はメモリの領域マップを設定する。ステップ100において、CPU12は領域マップをクリアして、領域IDを割り当て、その初期値を1に設定する。ピクセル番号に対応するルーチンの反復回数i=0で設定され、トークンを決定するシード(seed)として用いるN×Nピクセル配列の番号の初期値としてN=Nstartが設定される。Nstartは任意の整数>0であってよく、例えば11または15ピクセルに設定することができる。
ステップ102において、シードテストが開始される。CPU12は、第1のピクセル、例えばi=(1、1)、すなわち第1のN×Nサンプルの左上角のピクセルを選択する。当該ピクセルは次いで、選択されたピクセルが良好なシードの一部であるか否か決定すべく決定ブロック104においてテストされる。当該テストは、選択されたピクセルの色値を、シードとして自身の隣接ピクセルの予め選択された個数の色値、例えばN×N配列と比較することを含んでいてよい。比較の結果が当該シード内のピクセルにほぼ等しい値とならなかった場合、CPU12は次のN×Nシードサンプルについてiの値を、例えばi=(1、2)増やし(ステップ106)、次いでi=imaxであるか否かを判定する(決定ブロック108)。
画素値がimaxであり、結果を向上させるべくシードサイズを減らすことを決定するための閾値として選択された値、すなわちシードサイズNが、例えばN=15からN=12まで減らされる(ステップ110)。本発明の例証的な実施形態において、imaxをi=(n、m)に設定することができる。このように、図3Aのルーチンは、Nの減らされた値について当該ルーチン繰り返す前に、Nが第一の値であるときに画像全体を走査する。
シードサイズを減少させた後で、当該ルーチンはステップ102へ戻り、トークンシードに対するテストへ続ける。Nstop値(例えばN=2)もまた、解析が終了したか否か決定すべくステップ110で調べられる。Nの値がNstopである場合、CPU12は画像ピクセル配列の調査を完了して、当該ルーチンを出る。
iの値がimaxより小さく、且つNがNstopより大きい場合、当該ルーチンはステップ102へ戻り、トークンシードに対するテストを続ける。
良好なシード(ほぼ等しい画素値を有するN×N配列)が見つかった(ブロック104)場合、トークンはシードから成長する。ステップ112において、CPU12はピクセルをシードから待ち行列へ入れる。待ち行列内の全てのピクセルに領域マップ内の現在の領域IDがマーク付けされる。CPU12は次いで、待ち行列が空か否かを問い合わせる(決定ブロック114)。待ち行列が空でない場合、当該ルーチンはステップ116へ進む。
ステップ116において、CPU12は先頭ピクセルを待ち行列から取り出して、ステップ118へ進む。ステップ118において、CPU12は被写体ピクセル周辺の「良好な」隣接ピクセル、すなわち被写体ピクセルと色値がほぼ等しい隣接ピクセルに現在の領域IDをマーク付けする。マーク付けされた全ての良好な隣接ピクセルが領域マップに配置され、また待ち行列列に入れられる。CPUは次いで、決定ブロック114へ戻る。待ち行列が空になるまで、ステップ114、116、118のルーチンが繰り返される。その時点で、現在の領域内のトークンを形成しているピクセルの全てが識別され、且つ領域マップにマーク付けがなされている。
待ち行列が空の場合、CPUはステップ120へ進む。ステップ120において、CPUは次のトークンの識別に用いるべく、領域IDを増やす。CPUは次いで、ステップ106へ戻って、新規な現行トークン領域に関して当該ルーチンを繰り返す。
図3Aのフロー図のステップ110でN=Nstop、または画像に一致する領域マップの完成に到達したならば、当該ルーチンはトークン生成作業を完了した。図3Bは、トークン識別の例として用いる原画像である。当該画像は、青色と影に入っている青色の領域、およびティール色と影に入っているティール色の領域を示す。図3Cは、図3Aの画像内のトークン領域を示す。トークン領域には色コードが付与されていて、画像のフルカラー青色およびティール領域および彩色領域の影との間の半影領域を含む図3Bの画像のトークン構造を例示する。
その後CPU12は、画像内のX接合を識別すべく使用できるトークン・グラフを生成するルーチンを開始する。図4Aを参照するに、本発明の特徴に従い、図3Aに示すルーチンの実行により識別されたトークン領域からトークン領域グラフを生成するためのフロー図を示す。
当初、CPU12には、前のルーチンで識別されたトークンのリスト、およびトークン間の最大距離Dの値が与えられる(ステップ200)。本発明の例証的な実施形態において、D=20ピクセルである。ステップ202において、CPU12は、全てのトークンの全ての周辺ピクセルを識別すべく、各トークンのピクセル情報を走査する。図4Bは、図3Bの画像のトークン周辺ピクセルを示す。CPUは次いで、ステップ204へ進む。
ステップ204において、CPU12はトークン・リストからトークン領域を選択し、当該ルーチンのために、現行トークンAとして、選択されたトークンを識別する。トークンA内の各周辺ピクセルについて、CPU12は、トークンAの周辺からの最大距離D以内にある他の全てのトークンの中で最も近い周辺ピクセルを検出する(ステップ206)。
ステップ208において、CPU12は、先のピクセルマッチングのステップ206で検出された全てのトークンIDを編集することによりトークンAに隣接するトークンのリストを生成する。ステップ210において、CPU12は、トークンAの隣接トークンのリストを保存して、決定ブロック212へ進む。決定ブロック212において、CPU12は、トークン・リストの終端に達したか否かを調べる。達していない場合、CPU12はステップ204に戻り、トークンAをトークン・リストの次のトークンに設定して、次のトークンに対してステップ206〜212を繰り返す。CPU12がトークン・リストの終端に達した場合、CPUはステップ214へ進み、ここでCPU12は画像のトークン・グラフを返す。図4Cに、図3Bの画像の一部のトークン続グラフを示す。
トークン・グラフが完成したならば、CPU12はトークン領域グラフを用いて画像内のX接合を識別すべく図5Aのルーチンへ進む。トークン・リストの各トークンに対して、CPU12は、スペクトル比が照明と有形物境界の交差を示す領域を識別すべく隣接関係全体にわたって繰り返し実行する。
入力(ステップ300)としてCPU12は、図3A、4Aのルーチンの実行中にCPU12が各々準備したトークン・リストTおよびトークン・グラフGを受信する。T(トークン・リスト)内の全てのトークンTにわたる主ループの反復において、CPU12は以下に示すように隣接トークンにわたりサブループを繰り返し実行する。ステップ302において、CPU12はトークン・リストからトークンAを選択し、T=A(現行トークン)、次いで、Aについて全ての隣接トークン、X=Gを選択(トークン・グラフから)する。
現行トークンAについてサブループの1回目の実行として、CPU12はステップ302で検出されたX内の全ての隣接トークンXを走査する。ステップ304において、CPU12は次いで、B=Xとして設定された各隣接トークンを考慮する。決定ブロック306において、CPU12は現行トークンの隣接トークンBについて色Aの全て色帯域>色Bの全ての色帯域であるか否か、をテストする。色Aが全ての色帯域において色Bより大きくない場合、CPU12はステップ304に戻ってX(Aの隣接トークンG)から次の隣接トークンBを選択する。
色Aが色Bより大きい場合、CPU12はステップ308へ進み、Y=Gとして設定されたトークン・グラフからBの隣接トークンを選択する。CPU12は次いで、Y内の全ての隣接トークンYkにわたりサブループの次の実行へ進む。ステップ310において、CPU12は次いで、C=Ykとして設定された各隣接トークンを考慮する。決定ブロック312において、CPU12はA=Cであるか否かをテストする。AがCに等しい場合、CPU12はステップ310に戻ってYから次の隣接トークンC(Bの隣接トークンG)を選択する。
CがAとは異なるトークンである場合、CPUはステップ314へ進んで、Z=Gcとして設定されているCの隣接トークンを選択する。CPU12は次いで、Z内の全ての隣接トークンZに対するサブループの最後の実行へ進む。ステップ316において、CPU12は次いで、D=Zとして設定されている各隣接トークンを考慮する。決定ブロック318において、CPUは、DがXに存在するか否か、またD!=Bであるか否かをテストする。テスト結果がNOの場合、CPU12はステップ316へ戻り、Z(Cの隣接トークンGc)から次の隣接トークンDを選択する。
ブロック318のテスト結果がYES(はい)の場合、CPU12はステップ320へ進み、図5Aのルーチンの反復において識別された隣接トークン集合{A、B、C、D}がX接合基準を満たすか否かをテストする。図5Bに、図3Bの画像を隣接トークン集合{A、B、C、D}と共に示す。反復実行の仮説は、トークン集合{A、B、C、D}が特定の隣接関係、またはX接合を示す空間スペクトル条件を実現するというものであり、トークンAおよびBが物体1で構成され、AがBの照らされたバージョンであり、トークンDおよびCが物体2で構成され、DがCの照らされたバージョンである。当該仮説を検証すべく実行されるいくつかのテストがある。
図6Aに、X接合テスト実行サブルーチン、すなわち図5のフロー図のステップ320のフロー図を示す。ステップ326において、隣接トークン集合{A、B、C、D}は、ルーチンの開始点として設定されている。図からわかるように、図6Bの画像に示す仮説は、AとBが同一物体1であり、DとCが同一物体2であり(328)、且つBとCは影の中にある。
第1のテスト、すなわちステップ330において、CPU12は、各色帯域においてトークンAのピクセル>トークンBおよびピクセル、且つトークンDのピクセル>トークンCのピクセルであるか否かを判定する。色BおよびCには、1より大きいスカラー値である係数fが乗算される。ステップ332において、AおよびDトークンの明度測定値が最小閾値より明るいか否かが判定される。
次のテスト(ステップ334)は、各々の明部トークンAおよびDが色空間、例えばRGB空間において大幅に異なるか否かの判定を含んでいる。この点に関して、色空間距離(A、D)>閾値であるか否かに関する判定が行なわれる。
ステップ336において、CPU12は、AとDの間の反射率がBとCの間の反射率にほぼ等しいか否かを判定する。比率の境界が定められたバージョンを用いることができる。すなわちR=(A−D)/(A+D)、R=(B−C)/(B+C)、但しR=Rである。ステップ338において、スペクトル比S=B/(A−B)とS=C/(D−C)が比較されて、これらが互いに(所定の差の範囲内で)類似しているか否かを判定する。
ステップ340において、CPU12は、スペクトル比が合理的な照明の先験的なモデルに合致するか否かを判定する。制約に対するバリエーションとして、例えば、BおよびCトークンの暗度測定値が、対応する明部測定値の割合より小さいことを必要とする場合が含まれていてよい。更に、CPU12は、飽和レベルについてステップ338で決定されたスペクトル比をテストすることができる。飽和は、飽和=1(最小色帯域/最大色帯域)として定義される。飽和に関してスペクトル比に上界を定めることができる。例えば、飽和>0.9であるスペクトル比はいかなる場合も不合理であると考えられる。上述の制約の全てが満たされていれば、X接合基準が満足されていると考えられる(ステップ342)。
トークン集合{A、B、C、D}がステップ320のX接合テストに合格しない場合、CPU12は決定ブロック322においてステップ316へ戻ってZ(Cの隣接トークンGc)から次の隣接トークンDを選択する。トークン集合{A、B、C、D}が合格したならば、CPU12はステップ324へ進んでトークン集合{A、B、C、D}に正当なX接合としてマーク付けする。CPUは次いで、ステップ302へ戻り、X接合解析のために、トークン・リストTから次のトークン(集合{A、B、C、D}とは別の)を選択する。
ここで図7を参照するに、本発明の特徴に従い、X接合を用いて局所スペクトル比を識別するフロー図を示す。CPU12には、ステップ400において画像ファイル18およびX接合パラメータが与えられる。CPU12は次いでステップ402へ進み、所与の画像全体にわたり、画像内のX接合を識別する図3〜5の処理の実行を行なう。
ステップ402の終了後、CPUはステップ404へ進み、各X接合内の各々の明部/暗部ピクセル対についてスペクトル比を計算し、結果をメモリアレイに保存する。ステップ406において、CPUは、スペクトル比の配列に対して平均シフト・アルゴリズムを実行する。平均シフト・アルゴリズムは、例えば、コマニシウ(Comaniciu)、D.、ミーア(Meer)、P.「平均シフト解析およびアプリケーション(Mean-shift analysis and applications)」、コンピュータビジョン、1999、第7回IEEE国際会議報告書、第2巻、1999年9月20〜27日、1197〜1203ページに記載されているアルゴリズムを含んでいてよい。平均シフト・アルゴリズムの実行の出力(ステップ408)は、当該画像の全体または特定の局所領域に対するスペクトル比である。ステップ406の実行には、当該画像全体にわたるスペクトル比の値の調査が含まれていてよい。
スペクトル比が、量>閾値変動だけ変化した場合、照明境界を決定する際に用いたスペクトル比情報に対して局所的アプローチが実装される。すなわち、CPU12が、特定のX接合の近傍にある画像の領域の照明境界を決定する際に、当該特定X接合に対する平均シフト値がスペクトル比として用いられる。画像全体における全てのスペクトル比の変化が閾値変動より小さい場合、全ての照明境界の決定において用いたのと同じ平均シフトスペクトル比と共に大域的な方法を用いることができる。
ここで図8を参照するに、本発明の特徴に従い、比率マッチングを用いて物体と照明を識別するフロー図を示す。より具体的には、図8のルーチンは、照明境界を含んでいる照明光束を識別する。ステップ500において、CPU12には、図7のルーチンの実行を通じて決定された画像についてスペクトル比情報、および画像の標準明度エッジ境界セグメント情報が与えられる。画像の各々の明度エッジ部分に対して、CPU12はステップ502において、ピクセルまたはトークン対を選択することによりエッジを走査し、各対は、エッジ部分の明るい側からのピクセルまたはトークン、およびエッジ部分の暗い側からのピクセルまたはトークンを含んでいる。
ステップ504において、ピクセルまたはトークンの各対について、CPU12はスペクトル比、S=暗部/(明部−暗部)を計算して、S値を対応するエッジ部分に沿った全て対について累積する。ステップ506において、CPU12は、エッジ部分のS値の累積された集合が所与のスペクトル比情報に合致するか否かを判定する。上述のように、所与のスペクトル比情報は、画像の大域的な値またはエッジ部分が位置する画像の一部の局所的な値であり得る。スペクトル比が合致した場合、CPU12は当該エッジ部分に照明境界としてマーク付けする(ステップ508)。合致していない場合、CPU12は当該エッジに物体エッジとしてマーク付けする(ステップ510)。
ここで図9を参照するに、固定サイズのマスクを用いて画像のX接合を識別する代替的なルーチンのフロー図を示す。CPU12によりメモリ16から画像ファイル18にアクセスする(ステップ600)。マスクは、画像の解析に用いるべくピクセルのN×M行列(ピクセルの正方すなわちN×N行列であってよい)として定義される(602)。マスクは、画像のある領域を覆って配置される。ステップ604において、CPU12はX接合内の位置を近似すべく、マスクの領域内から4個の色測定値を選択する。4個の点は、図6Bに示すように、集合{A、B、C、D}として指定することができる。ステップ606において、集合{A、B、C、D}は、図6Aのフロー図のサブルーチンをテストするX接合を用いてX接合制約についてテストされる。
テスト・サブルーチンを実行した後で、CPU12は決定ブロック608へ進む。決定ブロックにおいて、CPU12は集合{A、B、C、D}がX接合テストに合格したか否か判定する。判定結果がYESの場合、CPU12は集合{A、B、C、D}の点間の中心ピクセルにX接合としてマーク付けを行ない(ステップ610)、ステップ612へ進む。判定結果がNO(いいえ)の場合、CPUは直接ステップ612へ進む。
ステップ612において、CPU12はマスクを画像上の新たな位置へ移動させて、画像の新たな領域にわたり再びルーチンを開始すべく、ステップ604へ進む。CPU12は、画像全体がテストされるまでマスクを移動し続ける。ステップ614において、オプションの追加的ルーチンが提供される。画像内で、多くの異なるサイズの半影部が存在し得る。いくつかの影は非常に鮮明な半影部を有する一方、他のものはぼやけた半影部を投射する。ステップ604〜612のルーチンが例えば20ピクセル×20ピクセルのマスクを用いる場合、これはぼやけた半影部の幅より小さい場合がある。この状況に対処すべく、且つ画像内の全てのX接合を確実に識別すべく、ステップ604〜612のルーチンは、より大きなマスクを用いるか、異なる向きまたは形状のマスクを用いるか、あるいは同一サイズのマスクに対し画像のサイズを縮小して再実行することができる。
縮小した画像に対して同一サイズのマスクの適用する方法は、尺度空間解析として知られている。一般に、マスク・サイズを大きくするよりも、画像を縮小する方がより効率的であるため、尺度空間解析が好ましい。ステップ614において、画像が縮小され(部分サンプル)、例えば半分にされる。これは、ピクセルの各2ピクセル×2ピクセルのブロックを取り出し、当該ブロックの平均色値を計算して、当該画像の新たな縮小バージョンにおける単一ピクセルとすることにより行なわれる。その後、ステップ604〜612は減少する画像のために繰り返される。
図10に、確率的サンプリングを用いて画像のX接合を識別するフロー図を示す。CPU12には、画像、当該画像の選択された領域、サンプリング方法、選択された領域に対するサンプリング・ルーチンNの最大数、および反復回数i=0(ステップ700)が与えられる。ステップ702において、CPU12はサンプリング方法を実行して、調査対象の画像の領域内から、色値{A、B、C、D}の集合を選択する。ステップ704において、集合{A、B、C、D}は図の6aフロー図のサブルーチンをテストするX接合を用いてX接合制約についてテストされる。
テスト・サブルーチンを実行した後で、CPU12は決定ブロック706へ進む。決定ブロックにおいて、CPU12は集合{A、B、C、D}がX接合テストに合格したか否か判定する。判定結果がNOの場合、CPU12は決定ブロック708へ進み、反復回数iがNすなわち選択された領域において実行される最大反復回数より少ないか否かをテストする。判定結果がNOの場合、CPU12はステップ710へ進み、反復回数iを0に再設定して、当該画像の次に選択された領域について継続する。CPU12は次いで、ステップ702へ戻って新たな領域について当該ルーチンを繰り返す。
i<Nのテスト結果がYESの場合、CPU12はステップ712へ進み、同一サンプル領域についてiの値を増やし、ステップ702へ戻って同一領域のサンプリングを繰り返す。X接合テストの結果がYESの場合(706)、CPU12はステップ714へ進み、領域の中心ピクセルにX接合としてマーク付けする。CPU12は次いで、上述のようにステップ710へ進む。ステップ716において、図9のステップ614の部分サンプルルーチンが実行されて、サイズが縮小された画像に対して確率的サンプリングを繰り返す。
本発明の別の特徴によれば、トークンの隣接関係を直接用いることにより画像の空間スペクトル特徴が決定される。N次トークンは、選択された色空間、例えばRGB、色相、または色度において測定された色が異なり、且つ画像内で互いに近傍にあるN個の1次トークンの集合である。例えば、画像内で互いに隣接する赤色1次トークンおよび青色1次トークンは、2次トークンを形成することができる。
図11Aに、N次トークンを生成する第1の方法のフロー図を示す。CPU12には、例えば図3Aのルーチンの実行を通じて識別されたトークンのリスト、入力画像領域Aおよび10ピクセルに設定された最大距離Dmaxが与えられている(ステップ800)。ステップ802において、CPU12は、画像領域A内の各1次トークンについて、画像位置またはピクセルX=p(i、j)を選択し、次いでN個のトークンの全ての一意の集合、すなわち各位置XからDmax以内にある異なる色の全てのトークンを検出する。ステップ804において、CPU12は、重複の有無を確認しつつ、ステップ802で検出されたN個のトークンの各集合をN次トークン集合に追加する。ステップ806において、CPU12は、画像部分のN次トークン集合を出力する。図11ABは、図11Aの方法を用いて生成されたN次トークンを示す画像である。
図l1bに、N次トークンを生成する第2の方法のフロー図を示す。第2の方法において、CPU12は、例えば図4Aのルーチンの実行を通じて作成されたトークン・グラフを用いる。ステップ808において、CPU12には、画像ファイル18のトークン・リスト、対応するトークン・グラフ、および最大距離Dmaxが与えられる。ステップ810において、トークン・リスト内の各トークンTについて、CPU12は、TからDmax以内にあるトークンの全ての一意な集合をトークン・グラフから検出する、ステップ812において、CPUは、重複の有無を確認しつつ、ステップ810で検出されたN個のトークンの各集合をN次トークン集合に追加する。ステップ814において、CPU12は、当該画像領域のN次トークン集合を出力する。図11BBは、図11Bの方法を用いて生成されたN次トークンを示す画像である。
本発明の更に別の特徴によれば、図11Aおよび11Bの方法のうち一つの実行を通じて生成されたN次トークンを用いて、画像の局所スペクトル比を識別する。再び、空間スペクトル特徴を調べて、照明光束を表わす特性スペクトル比情報を確認する。この例では、空間スペクトル特徴は、N次トークンの隣接トークン間の反射率とスペクトル比の関係を含んでいる。これらの関係はCPU12により調べられる。
図12を参照するに、N次トークンを用いて局所スペクトル比を識別するフロー図を示す。ステップ900において、画像ファイル18のN次トークンの集合が最初にCPU12に与えられる。CPU12は、N次トークン内の一様トークンを、例えば単一の色チャネルの明度の順に配置する(ステップ902)。図12に示すように、ステップ902に隣接して、N次トークンAおよびN次トークンBの各々の中でトークンのサンプル順序を示す。N次トークンAは順序付けられたトークンA,A,..Aを含み、N次トークンBは順序付けられたトークンB,B,..Bを含んでいる。本発明の特徴によれば、CPU12は各々のN次トークンに対して、反射率およびスペクトル比が合致する他の全てのN次トークンを検出すべく動作する(ステップ904)。
ステップ904(図12)に隣接して、トークン対A、Bの反射率およびスペクトル比を比較するアルゴリズムは示す。N次トークンA内の各トークン対A、A、およびN次トークンB内の対応するトークン対B、Bについて、CPU12はこれらの対の反射率とスペクトル比との等価関係を判定する。反射率は、比率の境界を定められたバージョン、すなわちR(A、A)=(A−A)/(A+A)、およびR(B、B)=(B−B)/(B+B)を用いて、R(A、A)=R(B、B)であるか否かを判定することにより決定できる。同様に、スペクトル比は、スペクトル比の好適な形式、すなわちS(A、B)=((A、B)の暗い方/(A、B)の明るい方−(A、B)の暗い方))、およびS(A、B)=((A、B)の暗い方)/(A、B)の明るい方−(A、B)の暗い方))を用いて、S(A、B)=S(A、B)であるか否かを判定することにより計算することができる。この解析および関係判定では、N次トークンの一方が影の中にあって、N次トークンの他方が照られているものと仮定する。
ステップ906においてCPU12は、合致する、すなわちステップ904において等価を示すN次トークンの対からの全てのスペクトル比を累積して、それらを配列にリストする。CPUは次いで、累積されたスペクトル比の配列に対して平均シフト・アルゴリズムを実行(ステップ908)し、その結果を局所領域の特性スペクトル比または画像全体として出力する(ステップ910)。
特性スペクトル比は、上述の方法のうち一つ以上を用いて決定されることができる。例えば、X接合およびN次トークンの各々を解析して局所スペクトル比を決定することができる。累積された比率は、信頼性の経験則に基づき重み付けされ、平均シフト・アルゴリズムにより処理されて特性スペクトル比を抽出することができる。
ここで図13を参照するに、本発明の特徴によるトークン領域マップ上のX接合を識別すべく追加的ルーチンのフロー図を示す。ステップ1000において、CPU12には、例えば、図4Aのルーチンの実行を通じて生成されたトークン領域マップ、およびN×Mマスク、例えば20ピクセル×20ピクセルマスクが与えられる。ステップ1002において、CPU12はマスクをトークン領域マップ上で移動させる。
各々のマスク位置について、CPU12は、シード容積K、例えば3ピクセルを以ってトークンをフィルタリングにより除去しながら、マスク内で全てのトークンのリストを計算する(ステップ1004)。CPU12は次いで、トークン領域マップで示すように、トークンのリストから、4個の合理的な隣接トークン{A、B、C、D}の各集合を選択する(ステップ1006)。集合{A、B、C、D}の合理性は、集合内の各トークンの明度を測定することによりCPU12で判定されて、トークンの1個が明るい領域となるのに十分明るいか否か(予め選択された明度のレベルに基づいて)決定する。当該トークンは次いで、ラベルAが付けられる。次いで、A以外の集合のトークンが測定されて、残りのトークンのいずれかが全ての色帯域においてAより暗いかか否が判定される。そのようなトークンはBとラベル付けされる。その後で、CPU12は、所定のレベルの明度より明るく、且つAとは異なる色を有する残りのトークンを測定する。当該トークンはDとラベル付けされる。次いで、残りのトークンが全ての色帯域においてDより暗いか否かが判定される。判定結果がYESならば残りのトークンはCとラベル付けされる。
例えば図6Aのルーチン等のテストがCPU12により実行されて、集合{A、B、C、D}がX接合であるか否が判定される。ステップ1008において、CPU12は、各マスク位置について、ステップ1004〜1006の実行を通じて識別されたX接合のリストを出力する。
以上述べた明細書において、本発明を特定の例証的な実施形態および実施例に関して記述してきた。しかし、添付の請求項に開示している本発明の主旨と範囲から逸脱することなく、各種の修正や変更がなされ得る点が明らかである。明細書および図面は従って、限定的な意味ではなく、説明目的であると理解されたい。
画像関連の動作を実行すべく構成および設定されたコンピュータシステムのブロック図である。 図1のコンピュータシステムに保存された画像のn×mピクセル配列画像ファイルを示す。 本発明の特徴による、図2の画像ファイルのトークン領域を識別するフロー図である。 トークンの識別の例として用いる原画像である。 図3Aの画像内のトークン領域を示す。 本発明の特徴に従い、図3Aで識別されたトークン領域からトークン領域グラフを生成するフロー図である。 図3Bの画像のトークン周辺部を示す。 図3Bの画像のトークン続グラフを示す。 本発明の特徴に従い、図4Aのトークン領域グラフを用いて画像のX接合を識別するフロー図である。 図3Bの画像内のX接合を示す。 図5のフロー図のサブルーチンをテストするX接合のフロー図である。 X接合を有する画像を示す。 本発明の特徴に従い、図5のX接合を用いる局所スペクトル比を識別するフロー図である。 本発明の特徴に従い、比率のマッチングを用いて物体および照明エッジを識別するフロー図である。 大きさが固定されたマスクを用いて画像内のX接合を識別するフロー図である。 確率的サンプリングを用いて画像のX接合を識別するフロー図である。 N次トークンを生成する第1の方法のフロー図である。 図11Aの方法を用いて生成された第n次トークンを示す画像である。 第n次トークンを生成する第2の方法のフロー図である。 図11Bの方法を用いて生成された第n次トークンを示す画像である。 図llAおよび11Bの方法のうち一方を用いて生成された第n次トークンを用いて局所スペクトル比を識別するフロー図である。 本発明の特徴に従い、トークン領域マップ上のX接合を識別する追加的なルーチンのフロー図である。

Claims (47)

  1. 画像内の照明光束を決定する、自動化およびコンピュータ化された方法であって、
    前記画像の予め選択された局所領域で動的サンプリングを実行して、前記予め選択された局所領域の各々での前記画像のスペクトル比情報を決定するステップと、
    前記スペクトル比情報を用いて照明光束を識別するステップとを含む方法。
  2. 前記動的サンプリングのステップが、前記画像内のトークン領域を識別し、かつ、前記トークン領域の隣接関係の解析を実行するステップにより実施されて前記スペクトル比情報を決定する、請求項1に記載の方法。
  3. 前記トークン領域の隣接関係の解析を実行するステップが実施されて、前記画像内のX接合を識別し、前記X接合を用いて前記スペクトル比情報を決定する、請求項2に記載の方法。
  4. 前記トークン領域の隣接関係の解析を実行するステップが、トークン領域グラフを生成するステップにより実施される、請求項3に記載の方法。
  5. 前記スペクトル比情報がS=暗部/(明部−暗部)を含む、請求項1の方法。
  6. 前記スペクトル比がSの正規化された値を含む、請求項5に記載の方法。
  7. 前記画像内のトークン領域を識別するステップが、ピクセルのシード領域を選択して、色特性の類似性の有無についてシード領域のピクセルをテストし、良好なシードであると判定された場合、前記シード領域のピクセルの良好な隣接ピクセルを識別するステップにより実施される、請求項2に記載の方法。
  8. 前記トークン領域グラフを生成するステップが、各トークン領域の周辺ピクセルを識別し、各周辺ピクセルについて、最大距離以内にある他の各トークン領域に最も近い周辺ピクセルを検出して、前記検出ステップにおいて前記最大距離以内で検出されたピクセルに対応する全てのトークン領域のリストを編集するステップにより実施される、請求項4に記載の方法。
  9. 前記画像内のX接合を識別するステップが、隣接トークンの一連の反復的な選択を実行して、X接合パラメータに関係する隣接特性のテストを実行するステップにより実施される、請求項3に記載の方法。
  10. 前記X接合を用いて前記スペクトル比情報を決定するステップが、各X接合の各々の明部/暗部ピクセル対についてスペクトル比を計算して、各X接合について計算されたスペクトル比に対して平均シフト・アルゴリズムを実行するステップにより実施される、請求項3に記載の方法。
  11. 前記スペクトル比が暗部/(明部−暗部)に等しい、請求項10に記載の方法。
  12. 前記スペクトル比情報を用いて照明光束を識別するステップが、境界における選択された色値の対のスペクトル比を、前記計算されたスペクトル比に対して平均シフト・アルゴリズムを実行するステップから得られた平均スペクトル比と比較して合致の有無を判定するステップにより実施される、請求項10に記載の方法。
  13. 画像内の照明境界を決定する自動化およびコンピュータ化された方法であって、
    前記画像内のX接合を識別するステップと、
    前記識別されたX接合により定義される前記画像の領域のスペクトル比を決定するステップと、
    前記スペクトル比を用いて照明境界を識別するステップとを含む方法。
  14. 前記X接合を識別するステップが、前記画像内のトークン領域を識別し、トークン領域の隣接関係の解析を実行して前記画像内のX接合を識別するステップにより実施される、請求項l3に記載の方法。
  15. 前記トークン領域の隣接関係の解析を実行するステップが、隣接トークンの一連の反復的な選択およびX接合パラメータに関係する隣接特性のテストを実行するステップにより実施される、請求項14に記載の方法。
  16. 前記識別されたX接合により定義される前記画像の領域のスペクトル比を決定するステップが、前記X接合の各々の明部/暗部ピクセル対についてスペクトル比を計算し、前記X接合について計算されたスペクトル比に対して平均シフト・アルゴリズムを実行するステップにより実施される、請求項13に記載の方法。
  17. 前記スペクトル比が暗部/(明部−暗部)に等しい、請求項16に記載の方法。
  18. 前記スペクトル比がSの正規化された値を含む、請求項17に記載の方法。
  19. 前記スペクトル比を用いて照明境界を識別するステップが、境界における選択された色値の対のスペクトル比を、前記計算されたスペクトル比に対して平均シフト・アルゴリズムを実行するステップから得られた平均スペクトル比と比較して合致の有無を判定するステップにより実施される、請求項16に記載の方法。
  20. 画像内の照明境界を決定する自動化およびコンピュータ化された方法であって、
    前記画像の空間スペクトル情報を識別するステップと、
    前記空間スペクトル情報を用いてスペクトル比情報を計算するステップと、
    前記スペクトル比情報を用いて照明光束を識別するステップとを含む方法。
  21. 前記空間スペクトル情報を識別するステップが、トークンの隣接関係の解析を実行するステップにより実施される、請求項20に記載の方法。
  22. 前記トークンの隣接関係の解析を実行するステップが、X接合を識別すべく実施される、請求項21に記載の方法。
  23. 前記トークンの隣接関係の解析を実行するステップが、前記画像の複数の予め選択された局所領域の各々で実施される、請求項21に記載の方法。
  24. 前記画像の空間スペクトル情報を識別するステップが、前記画像の複数の予め選択された局所領域の各々で実施される、請求項20に記載の方法。
  25. 前記空間スペクトル情報を識別するステップが、隣接トークン間での反射率とスペクトル比の関係の解析を実行するステップにより実施される、請求項20に記載の方法。
  26. 前記トークンの隣接関係の解析を実行するステップが、N次トークンを識別して、前記N次トークンの隣接トークン間での反射率とスペクトル比の関係を比較するステップにより実施される、請求項21に記載の方法。
  27. 前記スペクトル比情報がS=暗部/(明部−暗部)を含む、請求項20に記載の方法。
  28. 前記スペクトル比がSの正規化された値を含む、請求項27に記載の方法。
  29. 前記空間スペクトル情報を用いてスペクトル比情報を計算するステップが、前記画像の特徴的照明光強度比を決定することにより実施され、前記スペクトル比情報を用いて照明光束を識別するステップが、暗部/明部色対のスペクトル比を前記特性照明光強度比と比較して合致の有無を判定するステップにより実施される、請求項20に記載の方法。
  30. CPUと、
    画像ファイルを保存するメモリとを含み、
    前記CPUが、前記画像から空間スペクトル情報を識別するルーチンを実行し、前記空間スペクトル情報を用いてスペクトル比情報を計算して、前記計算スペクトル比を用いて前記画像内の照明光束を識別すべく構成および設定されている、コンピュータシステム。
  31. 前記CPUが、隣接トークン間での反射率とスペクトル比の関係の解析により空間スペクトル情報を識別する、請求項30のコンピュータシステム。
  32. 前記CPUが、X接合の解析により前記空間スペクトル情報を識別する、請求項30に記載のコンピュータシステム。
  33. 前記CPUが、前記画像の複数の予め選択された局所領域の各々で前記空間スペクトル情報を識別する、請求項30に記載のコンピュータシステム。
  34. 前記スペクトル比情報がS=暗部/(明部−暗部)を含む、請求項30に記載のコンピュータシステム。
  35. 前記スペクトル比がSの正規化された値を含む、請求項34に記載のコンピュータシステム。
  36. 画像内の照明情報を決定する自動化およびコンピュータ化された方法であって、
    前記画像の空間スペクトル情報を識別するステップと、
    前記空間スペクトル情報を用いて前記画像のスペクトル比情報を計算するステップとを含む方法。
  37. 前記空間スペクトル情報を識別するステップが、トークンの隣接関係の解析を実行するステップにより実施される、請求項36に記載の方法。
  38. 前記トークンの隣接関係の解析を実行するステップが、X接合を識別すべく実施される、請求項37に記載の方法。
  39. 前記トークンの隣接関係の解析を実行するステップが、前記画像の複数の予め選択された局所領域の各々で実施される、請求項37に記載の方法。
  40. 前記画像の空間スペクトル情報を識別するステップが、前記画像の複数の予め選択された局所領域の各々で実施される。請求項36に記載の方法。
  41. 前記空間スペクトル情報を識別するステップが、隣接トークン間での反射率とスペクトル比の関係の解析を実行するステップにより実施される、請求項36に記載の方法。
  42. 前記スペクトル比情報がS=暗部/(明部−暗部)を含む、請求項36に記載の方法。
  43. 前記スペクトル比がSの正規化された値を含む、請求項42に記載の方法。
  44. 画像内の照明情報を決定する自動化およびコンピュータ化された方法であって、
    前記画像のスペクトル比情報を計算するステップと、
    前記画像のスペクトル比情報を用いて前記画像の照明情報を識別するステップとを含む方法。
  45. 前記スペクトル比情報が、スペクトル比S=暗部/(明部−暗部)を含む、請求項44に記載の方法。
  46. 前記照明情報が前記画像内の照明光束を含む、請求項44に記載の方法。
  47. 前記照明光束が照明境界を含む、請求項46に記載の方法。
JP2007553270A 2005-01-27 2006-01-27 画像内の照明光を識別する方法、システム、ならびにコンピュータプログラムを記録した記録媒体 Active JP4857287B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US64822805P 2005-01-27 2005-01-27
US60/648,228 2005-01-27
US65030005P 2005-02-03 2005-02-03
US60/650,300 2005-02-03
PCT/US2006/002965 WO2006081437A2 (en) 2005-01-27 2006-01-27 Method and system for identifying illumination flux in an image

Publications (2)

Publication Number Publication Date
JP2008529169A true JP2008529169A (ja) 2008-07-31
JP4857287B2 JP4857287B2 (ja) 2012-01-18

Family

ID=36741083

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007553270A Active JP4857287B2 (ja) 2005-01-27 2006-01-27 画像内の照明光を識別する方法、システム、ならびにコンピュータプログラムを記録した記録媒体
JP2007553271A Expired - Fee Related JP4783795B2 (ja) 2005-01-27 2006-01-27 照明および反射境界の区別

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2007553271A Expired - Fee Related JP4783795B2 (ja) 2005-01-27 2006-01-27 照明および反射境界の区別

Country Status (4)

Country Link
US (3) US7672530B2 (ja)
EP (2) EP1842153B1 (ja)
JP (2) JP4857287B2 (ja)
WO (2) WO2006081437A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272292A (ja) * 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP2012525631A (ja) * 2009-04-30 2012-10-22 タンデント ビジョン サイエンス インコーポレーティッド 画像修正のための改良された方法
JP2015501037A (ja) * 2011-11-21 2015-01-08 タンデント ビジョン サイエンス インコーポレーティッド デジタル画像に関する色解析

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995058B2 (en) * 2006-01-27 2011-08-09 Tandent Vision Science, Inc. Method and system for identifying illumination fields in an image
US7596266B2 (en) * 2006-04-13 2009-09-29 Tandent Vision Science, Inc. Method and system for separating illumination and reflectance using a log color space
US8730306B2 (en) * 2006-04-25 2014-05-20 Corporation For Laser Optics Research 3-D projection full color multimedia display
JP4730267B2 (ja) * 2006-07-04 2011-07-20 株式会社デンソー 車両用視界状況判定装置
US7639874B2 (en) * 2006-08-03 2009-12-29 Tandent Vision Science, Inc. Methods for discriminating moving objects in motion image sequences
US7747079B2 (en) * 2006-09-27 2010-06-29 Tandent Vision Science, Inc. Method and system for learning spatio-spectral features in an image
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
GB2456482B (en) * 2006-11-08 2011-08-17 Univ East Anglia Detecting illumination in images
US7853071B2 (en) * 2006-11-16 2010-12-14 Tandent Vision Science, Inc. Method and system for learning object recognition in images
US8319821B2 (en) * 2007-06-05 2012-11-27 Tandent Vision Science, Inc. Polarization-based shadow detection
US8411979B2 (en) * 2007-07-26 2013-04-02 Omron Corporation Digital image processing and enhancing system and method with function of removing noise
US7760912B2 (en) * 2007-08-01 2010-07-20 Tandent Vision Science, Inc. Image segregation system with method for handling textures
US8144978B2 (en) * 2007-08-01 2012-03-27 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US7940423B2 (en) * 2007-11-30 2011-05-10 Canon Kabushiki Kaisha Generating a device independent interim connection space for spectral data
US8175390B2 (en) * 2008-03-28 2012-05-08 Tandent Vision Science, Inc. System and method for illumination invariant image segmentation
US8260050B2 (en) * 2008-12-05 2012-09-04 Tandent Vision Science, Inc. Test bed for optimizing an image segregation
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
US8139850B2 (en) 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Constraint generation for use in image segregation
US8139867B2 (en) 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Image segregation system architecture
US8478029B2 (en) 2009-05-26 2013-07-02 Tandent Vision Science, Inc. Multi-resolution analysis in image segregation
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
JP5206620B2 (ja) * 2009-08-05 2013-06-12 三菱電機株式会社 部材の位置認識装置、位置決め装置、接合装置および部材の接合方法
JP5666852B2 (ja) * 2009-09-02 2015-02-12 Necプラットフォームズ株式会社 カラー判定装置、画像処理装置、カラー判定方法、カラー判定プログラム
US9563815B2 (en) * 2009-09-15 2017-02-07 Tandent Vision Science, Inc. Method and system for processing an image received from a remote source
US8311338B2 (en) * 2009-09-15 2012-11-13 Tandent Vision Science, Inc. Method and system for learning a same-material constraint in an image
US8385655B2 (en) * 2009-12-18 2013-02-26 Tandent Vision Science, Inc. Method and system for generating intrinsic images using single reflectance technique
US9754155B2 (en) * 2009-12-18 2017-09-05 Tandent Vision Science, Inc. Method and system for generating intrinsic images using a single reflectance technique
US8452109B2 (en) * 2010-01-11 2013-05-28 Tandent Vision Science, Inc. Image segregation system with method for handling textures
US8665329B2 (en) * 2010-06-11 2014-03-04 Gianni Arcaini Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
US8488900B2 (en) 2010-06-23 2013-07-16 Digimarc Corporation Identifying and redressing shadows in connection with digital watermarking and fingerprinting
US8274656B2 (en) * 2010-06-30 2012-09-25 Luminex Corporation Apparatus, system, and method for increasing measurement accuracy in a particle imaging device
US8787662B2 (en) * 2010-11-10 2014-07-22 Tandent Vision Science, Inc. Method and system for identifying tokens in an image
US8577150B2 (en) 2011-03-18 2013-11-05 Tandent Vision Science, Inc. System and method for removing specularity from an image
US8655099B2 (en) 2011-06-10 2014-02-18 Tandent Vision Science, Inc. Relationship maintenance in an image process
US8655102B2 (en) 2011-06-10 2014-02-18 Tandent Vision Science, Inc. Method and system for identifying tokens in an image
US8606050B2 (en) 2011-06-16 2013-12-10 Tandent Vision Science, Inc. Method for processing multiple images of a same scene
US8582873B2 (en) 2011-06-16 2013-11-12 Tandent Vision Science, Inc. Use of an object database in an image process
US20130053620A1 (en) * 2011-08-26 2013-02-28 Actium BioSystems, LLC Apparatus for the generation of an energy field for the treatment of cancer in body cavities and parts that are cavity-like
US9053537B2 (en) 2011-09-21 2015-06-09 Tandent Vision Science, Inc. Classifier for use in generating a diffuse image
US8693772B2 (en) 2011-10-11 2014-04-08 Tandent Vision Science, Inc. System and method for digital image signal compression using intrinsic images
US8879836B2 (en) 2011-10-14 2014-11-04 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US8428352B1 (en) 2011-11-07 2013-04-23 Tandent Vision Science, Inc. Post processing for improved generation of intrinsic images
US8559714B2 (en) 2011-11-07 2013-10-15 Tandent Vision Science, Inc. Post processing for improved generation of intrinsic images
US8553979B2 (en) 2011-11-07 2013-10-08 Tandent Vision Science, Inc. Post processing for improved generation of intrinsic images
GB201119405D0 (en) * 2011-11-10 2011-12-21 Univ East Anglia Spectral estimation method,system and reference target design system
US8787666B2 (en) 2011-11-21 2014-07-22 Tandent Vision Science, Inc. Color analytics for a digital image
US8810658B2 (en) * 2012-02-02 2014-08-19 Xerox Corporation Estimating a visible vector representation for pixels in an infrared image
US8437545B1 (en) 2012-04-18 2013-05-07 Tandent Vision Science, Inc. System and method for digital image signal compression using intrinsic images
US8913829B2 (en) 2012-06-05 2014-12-16 Tandent Vision Science, Inc. Automatic processing scale estimation for use in an image process
US8849018B2 (en) 2012-08-17 2014-09-30 Tandent Vision Science, Inc. Log-chromaticity clustering pipeline for use in an image process
US8811732B2 (en) 2012-08-17 2014-08-19 Tandent Vision Science, Inc. Weighted entropy minimization for optimizing a log-chromaticity normal for use in an image process
US8842907B2 (en) 2012-08-17 2014-09-23 Tandent Vision Science, Inc. Method for performing a multi-clustering merge for use in an image process
US8842910B2 (en) 2012-08-17 2014-09-23 Tandent Vision Science, Inc. Spatially varying log-chromaticity normals for use in an image process
US8934735B2 (en) 2012-09-07 2015-01-13 Tandent Vision Science, Inc. Oriented, spatio-spectral illumination constraints for use in an image progress
US8897378B2 (en) 2013-03-12 2014-11-25 Tandent Vision Science, Inc. Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression
US9621266B2 (en) * 2014-03-25 2017-04-11 Osram Sylvania Inc. Techniques for raster line alignment in light-based communication
US9158989B1 (en) 2014-05-08 2015-10-13 Tandent Vision Science, Inc. Color pure scale-spaced pyramid arrangement for use in an image segregation
US9158973B1 (en) 2014-05-08 2015-10-13 Tandent Vision Science, Inc. Temporal constraint relationship for use in an image segregation for frames of a video
US9361700B2 (en) 2014-05-08 2016-06-07 Tandent Vision Science, Inc. Constraint relationship for use in an image segregation
US9875415B2 (en) * 2014-11-17 2018-01-23 Tandent Vision Science, Inc. Method and system for classifying painted road markings in an automotive driver-vehicle-asistance device
US9218534B1 (en) * 2014-11-17 2015-12-22 Tandent Vision Science, Inc. Method and system for classifying painted road markings in an automotive driver-vehicle-assistance device
US9361527B1 (en) * 2014-11-17 2016-06-07 Tandent Vision Science, Inc. Method and system for classifying painted road markings in an automotive driver vehicle-assistance device
WO2016176209A1 (en) 2015-04-28 2016-11-03 Dolby Laboratories Licensing Corporation Image highlight detection and rendering
US20170099476A1 (en) * 2015-10-01 2017-04-06 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
KR102048992B1 (ko) * 2017-07-21 2019-11-27 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
US11210549B2 (en) * 2020-03-19 2021-12-28 Zebra Technologies Corporation Automated chute fullness detection
US11960193B2 (en) 2021-12-28 2024-04-16 SUB2r Inc. Backdrop rear-illumination apparatus, an active green screen and a method for dynamic backdrop rear-illumination

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495536A (en) * 1991-05-08 1996-02-27 Sandia Corporation Image processing system and method for recognizing and removing shadows from the image of a monitored scene

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4685071A (en) * 1985-03-18 1987-08-04 Eastman Kodak Company Method for determining the color of a scene illuminant from a color image
US5638465A (en) * 1994-06-14 1997-06-10 Nippon Telegraph And Telephone Corporation Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor
EP0742536B1 (en) * 1995-05-11 2000-09-13 Agfa-Gevaert N.V. Method of recognising one or more irradiation fields
US6037976A (en) * 1995-10-31 2000-03-14 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence, such as fog, haze or shadows
US6061091A (en) * 1996-05-30 2000-05-09 Agfa Gevaert N.V. Detection of and correction for specular reflections in digital image acquisition
JP2822983B2 (ja) * 1996-06-27 1998-11-11 日本電気株式会社 透過型液晶表示装置
US6349113B1 (en) * 1997-11-03 2002-02-19 At&T Corp. Method for detecting moving cast shadows object segmentation
US6005683A (en) * 1997-12-05 1999-12-21 Hewlett-Packard Company Document edge detection by linear image sensor
US6462772B1 (en) * 1998-12-23 2002-10-08 Eastman Kodak Company Method of calibrating image scanning apparatus of a photographic film scanner
DE19904372C2 (de) * 1999-02-03 2002-08-01 Schneider Laser Technologies Bilddarstellungssystem
US6741753B1 (en) * 2000-09-05 2004-05-25 Hewlett-Packard Development Company, L.P. Method and system of local color correction using background liminance masking
US7088392B2 (en) * 2001-08-27 2006-08-08 Ramakrishna Kakarala Digital image system and method for implementing an adaptive demosaicing method
US7031525B2 (en) * 2002-07-30 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Edge detection based on background change
US7206449B2 (en) * 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7103227B2 (en) * 2003-03-19 2006-09-05 Mitsubishi Electric Research Laboratories, Inc. Enhancing low quality images of naturally illuminated scenes
JP4089780B2 (ja) * 2003-03-25 2008-05-28 徳島県 カラー画像の処理方法
JP4171354B2 (ja) * 2003-06-17 2008-10-22 三菱電機株式会社 カラー画像処理装置及び方法
US20050212794A1 (en) * 2004-03-29 2005-09-29 Communications Research Laboratory, Independent Administrative Institution Method and apparatus for removing of shadows and shadings from texture images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495536A (en) * 1991-05-08 1996-02-27 Sandia Corporation Image processing system and method for recognizing and removing shadows from the image of a monitored scene

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272292A (ja) * 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP4674179B2 (ja) * 2006-03-30 2011-04-20 株式会社デンソーアイティーラボラトリ 影認識方法及び影境界抽出方法
JP2012525631A (ja) * 2009-04-30 2012-10-22 タンデント ビジョン サイエンス インコーポレーティッド 画像修正のための改良された方法
US8805066B2 (en) 2009-04-30 2014-08-12 Tandent Vision Science, Inc. Method, system and computer program product for image modification and manipulation of a scene
US10043249B2 (en) 2009-04-30 2018-08-07 Tandent Vision Science, Inc. Method for image modification
JP2015501037A (ja) * 2011-11-21 2015-01-08 タンデント ビジョン サイエンス インコーポレーティッド デジタル画像に関する色解析

Also Published As

Publication number Publication date
EP1842154A4 (en) 2009-03-25
WO2006081437A2 (en) 2006-08-03
US7873219B2 (en) 2011-01-18
EP1842153A4 (en) 2009-04-15
US20060177137A1 (en) 2006-08-10
JP4857287B2 (ja) 2012-01-18
EP1842154B9 (en) 2013-02-13
EP1842153B1 (en) 2012-08-01
EP1842154B1 (en) 2012-08-01
JP4783795B2 (ja) 2011-09-28
WO2006081438A3 (en) 2008-01-10
JP2008529170A (ja) 2008-07-31
EP1842153A2 (en) 2007-10-10
US20100074539A1 (en) 2010-03-25
WO2006081437A3 (en) 2007-07-26
US7672530B2 (en) 2010-03-02
US20060177149A1 (en) 2006-08-10
WO2006081438A2 (en) 2006-08-03
EP1842154A2 (en) 2007-10-10

Similar Documents

Publication Publication Date Title
JP4857287B2 (ja) 画像内の照明光を識別する方法、システム、ならびにコンピュータプログラムを記録した記録媒体
US7894662B2 (en) Method for using image depth information in identifying illumination fields
US7639874B2 (en) Methods for discriminating moving objects in motion image sequences
US8542917B2 (en) System and method for identifying complex tokens in an image
US8577150B2 (en) System and method for removing specularity from an image
US8559714B2 (en) Post processing for improved generation of intrinsic images
US8983183B2 (en) Spatially varying log-chromaticity normals for use in an image process
US8428352B1 (en) Post processing for improved generation of intrinsic images
EP2776979B1 (en) Post processing for improved generation of intrinsic images
US8842907B2 (en) Method for performing a multi-clustering merge for use in an image process
US8655099B2 (en) Relationship maintenance in an image process
US20140050399A1 (en) Log-chromaticity clustering pipeline for use in an image process
US8811732B2 (en) Weighted entropy minimization for optimizing a log-chromaticity normal for use in an image process
US8879836B2 (en) System and method for identifying complex tokens in an image
WO2014028355A2 (en) Log-chromaticity clustering pipeline for use in an image process

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4857287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250