JP4303454B2 - Correlation function peak position determination method - Google Patents

Correlation function peak position determination method Download PDF

Info

Publication number
JP4303454B2
JP4303454B2 JP2002228349A JP2002228349A JP4303454B2 JP 4303454 B2 JP4303454 B2 JP 4303454B2 JP 2002228349 A JP2002228349 A JP 2002228349A JP 2002228349 A JP2002228349 A JP 2002228349A JP 4303454 B2 JP4303454 B2 JP 4303454B2
Authority
JP
Japan
Prior art keywords
correlation function
image
function value
correlation
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002228349A
Other languages
Japanese (ja)
Other versions
JP2003148918A (en
Inventor
ネイハム マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/921,711 external-priority patent/US6996291B2/en
Priority claimed from US09/921,889 external-priority patent/US6990254B2/en
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Publication of JP2003148918A publication Critical patent/JP2003148918A/en
Application granted granted Critical
Publication of JP4303454B2 publication Critical patent/JP4303454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Description

【0001】
【発明の属する技術分野】
本発明は、画像相関ベースの相関関数ピーク位置決定方法に関する。
【0002】
【従来の技術】
各種の既知の装置では、センサアレイによって取得された画像及び該センサアレイによって取得された画像間の相関が、変形及び/又は変位を決定するために使用される。例えば、そのような装置の或る1つの種別では、光学的に粗い面(以下、これを「光学拡散粗面」という)を光源で照明することによって生成されるスペックル画像を取得することが前提となっている。一般にこの光源はレーザ生成光源のようなコヒーレント光源である。そのようなレーザ生成光源は、レーザ、半導体レーザ、及びそれらに類するものを含む。光学拡散粗面が光源によって照明された後、光学拡散粗面から散乱した光は光学式センサの上に像を生成する。この光学式センサは、電荷結合素子(CCD)、CMOS画像センサアレイのような半導体画像センサアレイ、又はそれらに類するものであってもよい。
【0003】
光学拡散粗面を変位又は変形させる前に、第1の初期スペックル画像を撮影して格納する。次に、光学拡散粗面を変位又は変形させた後に、第2の又は後続のスペックル画像を撮影して格納する。そして従来、第1及び第2のスペックル画像において、ピクセル単位を基礎として全体の比較が行われる。一般に、この比較が複数回実行される。個々の比較において、第1のスペックル画像と第2のスペックル画像との差が求められ、又は空間的に変換される。各比較の間に、オフセット量又は空間変換(spatial translation)値が、1つの画像エレメントすなわちピクセル、または整数で表される数の画像エレメントすなわちピクセルのような、既知の量だけ増加される。
【0004】
個々の比較において、基準画像内の特定なピクセルの画像値が、対応の第2の画像ピクセルの画像値だけ乗算されたり、該画像値から減算されたり、又は該画像値を用いて他の関数で演算が行われたりする。上記の対応の第2の画像ピクセルは、オフセット量に基づき決定される。ピクセル単位の各処理から得られた値は、第1及び第2の画像の比較結果に応じた相関値を決定するために、その画像の他の各ピクセルに対して行われた処理から得られた値とともに蓄積される。そして、この相関値は基本的に、相関関数値ポイントを決定するためにその比較毎に、オフセット量又は空間変換位置に対する図表として作図される。基準画像と第1の画像との間の最大相関を有するオフセットは、ピクセル単位の比較がどのように行われたかに応じて、相関関数値ポイントの図表においてピーク又は谷を発生することになる。ピーク又は谷に対応するオフセット量は、第1のスペックル画像と第2のスペックル画像との間の変位量又は変形量を表す。
【0005】
本願に完全な形で引用される米国特許出願第09/584,264号は、スペックル画像ベースの光学式トランスデューサの各種の異なった実施の形態を開示する。この264出願に開示されるように、そのような画像ベースの相関システムは、画像化された表面を画像化システムに対して1次元又は2次元において移動することができる。さらに、画像化された表面は平面である必要はなく、曲面状又は円筒状であってもよい。画像化された表面と画像化システムとの間の2次元の相対的な動きを有するシステムは、1次元では事実上平面の画像化された表面を有し、2次元では、例えば、画像化システムを通過する軸を回転軸とする円筒のような事実上非平面の画像化された表面を有することができ、同時に、その円筒面は軸に沿って画像化システムを通過しながら変換される。
【0006】
本願に完全な形で引用される米国特許出願第09/731,671号は、相関ベースの位置トランスデューサにおける高精度変位決定のためのシステム及び方法を開示する。この671出願では、相関ベースの位置トランスデューサ及びそれに類するものにおける画像のサブピクセル変位を評価するシステムが提示される。このシステムでは、従来のサブピクセル評価方法が多数の相関関数値ポイントに適用されるときに、取り分け、相関関数値ポイントが非対称に配置されるときに存在する系統的変位評価エラーが取り除かれる。
【0007】
しかし、上記に説明した従来の画像相関システムでは、オフセット位置毎に全画像に亘って相関関数値を決定するために必要とされる演算負荷がしばしば、極端に大きくなる。そこで、CaliforniaのSan Joseで1997年2月10-11日に開催されたSPIEの議事録「Machine Vision applications and Industrial Inspection V」に記載されたM.Hirooka 他による「Hierarchical Distributed Template Matching」、及び1977年2月発行の「IEEE Transactions on Systems, Man and Cybernetics」の第104-107ページに記載されたA.Rosenfeld 他による「Coarse-Fine Template Matching」によれば、相関がとられるべき画像の解像度を落とすことにより演算負荷を減少させるようにした各種の技術が提供されている。なお、これらの論文の両方において、多数のピクセルの画像値を平均化することによって画像解像度を減少させて、ピクセル数が削減された「しなびた(shrunken)」画像を生成している。そして画像相関を、解像度の減少した画像に対して、オフセット位置毎にピクセル単位を基礎として行っている。最大相関の大体のエリアが一旦特定されると、元々の最大解像度の画像が、このエリアだけにおいてオフセット位置毎にピクセル単位を基礎として比較される。
【0008】
同様に、1984年3月発行の「IEEE Transactions on Pattern Analysis and Machine Intelligence」Vol.6 No.3 に記載されたA.Goshtasby 他による「A Two-Stage Cross Correlation Approach To Template Matching」には、別の2ステージ技術が開示されている。この論文では、Rosenfeld 他及びHirooka 他の論文のように全画像の解像度を上げることよりもむしろ、相関がとられるべき画像内の限られた数のピクセルを画像オフセット位置毎に比較し、これによって相関関数を生成するようにしている。Hirooka 他及びRosenfeld 他の論文と同様に、数の削減されたピクセルが比較に使用される。しかし、Hirooka 他及びRosenfeld 他の論文と異なり、その使用されるピクセルは最大解像度でのものであり、比較されるべき全画像を表すものではない。Hirooka 他及びRosenfeld 他の論文と同様に、本技術では、高相関のエリアが数の削減されたピクセルのみを使用して一旦特定されると、そのエリアはさらに、オフセット位置毎に比較されるべき画像の全ピクセルを使用して解析される。
【0009】
Hirooka 他及びRosenfeld 他の論文に開示される解像度を上げる技術、及びGoshtasby 他の論文で使用される最大解像度の画像の限られた部分を比較する技術とは対照をなすものとして、1985年4月発行の「Proceedings of the IEEE」Vol.73 No.4 の第523-548ページに記載されたH.G.Musmann 他による「A Advances in Picture Coding」に、中心探索ポイントの周囲にある疎らな間隔の多数の探索ポイント(以下「疎間探索ポイント」という)を探索する2つの技術が記載されている。それによると、各探索ポイントで全部の画像相関値が決定される。そして、得られた相関値に対して解析が行われる。これらの解析では通常、疎間探索ポイントに対する相関のピーク又は谷の方向が示される。そして、相関のピーク又は谷の方向のすぐ近くに位置する疎間探索ポイントは中心ポイントとして選択され、この中心ポイントの周囲に、さらに別の疎間探索ポイントが選択される。この処理は、相関のピーク又は谷が特定されるまで反復して実行される。しかしかつて、Hirooka 他、Rosenfeld 他又はGoshtasby 他の論文で開示される技術のような、画像の表現を減少させるどの技術も実際に使用されたことはない。同様に、Musmann 他の論文に開示される技術では、中心ポイントが相関のピーク又は谷に近づくにつれて、中心ポイントの周囲の疎間探索ポイントが折り畳まれる(collapse)が、各反復処理は同数の疎間探索ポイントを使用する。
【0010】
【発明が解決しようとする課題】
本願に完全な形で引用される米国特許出願第09/860,636号は、基準画像を使う画像相関システムにおけるシステマティック変位エラーの蓄積を減少させるためのシステム及び方法を開示する。特に、636出願は、第1の画像に対して第2の画像の特定な位置的変位又はオフセットの相関値を決定するために必要となるシステムリソース量を減少させるための各種の方法を開示する。
【0011】
上述したHirooka 他、Rosenfeld 他、Goshtasby 他、及びMusmann 他の全てにおいて、開示された技術は、低空間周波数グレイスケール画像、低空間周波数マップ、及び低空間周波数ビデオ画像にとって役に立つものである。しかしながら、Hirooka 他及びRosenfeld 他に開示された解像度減少又は平均化技術は一般に、スペックル画像、表面テクスチャに類似する画像、高密度ドットパターン、及びそれらに類するもののような、高空間周波数画像に適用できないものである。これは、そうした解像度減少又は空間平均化が、そうした高空間周波数画像における正確な相関値を決定するために必要な各種の空間的特徴を「平均化してしまう」すなわち取り除いてしまいがちであるという理由による。
【0012】
類似した趣旨で、Goshtasby 他に開示されるような、N2個のデータポイントを持つテンプレートからランダムに選択されたN個のデータポイントのセットを取り上げることによって生成されたサブテンプレートもまた、そうした高空間周波数画像には適用できない。Goshtasby 他で使用される低空間周波数画像では、ランダムに選択された各データポイント(又はピクセル値)が、周辺のデータポイント(又はピクセル値)に画像値において略類似していそうである。そのため、各データポイントは、略同一量を相関値に提供する。これとは対照的に、スペックル画像のような高空間周波数画像では、各ピクセルの画像値が、隣接のピクセルの画像値とは著しく異なっていそうに思われる。その結果として、画像相関処理の第1のステージで使用されるべきピクセルが、そのような高空間周波数画像においてランダムに選択されるならば、実際のオフセット位置における結果的に得られる画像相関値は、他のオフセット量における画像相関値から区別され得ないように思われる。
【0013】
Musmann 他で説明される疎間探索ポイント技術もまた一般的に、そうした高空間周波数画像に適用することはできない。特に、そうした高空間周波数画像は一般に、実際のオフセット位置から離れているほぼ限られた範囲内においては実質的に平ら又は一定であるとともに、実際のオフセット位置に非常に近いオフセット位置においては実質的に急勾配又は不規則である相関関数の「特性(landscape)」を持つことになる。すなわち、実際のオフセット位置から離れたオフセット位置では、相関関数が単に、実際のオフセット位置の周辺の非常に狭い範囲を除いた、平均値からの或る限られた範囲内で、或る規則的なやり方によって変化することになる。この実際のオフセット位置の周辺の非常に狭い範囲では、相関値が、他の通常の変動値及びそれらの平均値から著しく離れたものとなる。
【0014】
これとは対照的に、Musmann 他に開示される疎間探索ポイント技術は、全ポイントで相関ピークの方向を示すかなりの勾配からなる相関関数の「特性」を当てにしている。これによって、疎間探索ポイントの如何なるセットの解析もが、相関関数のピーク又は谷の大まかな方向をはっきりと指し示すことができる。しかしながら、Musmann 他に開示される疎間探索ポイント技術を、相関ピーク又は谷の周辺を除く、実質的に平らな又は一定の特性をもつ相関関数に適用することは、疎間探索ポイントの1つが、通常の変動値及びそれらの平均値から離れた相関値の非常に狭い範囲内にランダムに存在することが生じない限り、識別できるほどに相関関数ピーク又は谷に向かう明確な方向を示す結果にならない。ただし、これは、当業者によって理解され得るように、Musmann 他に開示される特定の疎間探索ポイント技術において非常に低い確率で発生するものである。
【0015】
かくして、本発明者は、2次元に沿った変位を許す高解像度画像システム及び/又は画像相関システムが、位置変位又はオフセット毎に相関値を決定するとき、利用可能なシステムリソースの余りにも大部分を必要とするという点に注目した。加えて、1次元に沿った相対的変位のみを許すシステムでさえも、相関変位を決定するときに必要となるシステムリソース量の減少が効能をもたらす点に注目した。
【0016】
本発明はこのような問題点に鑑みてなされたものであって、相関処理を実行するために必要なシステムリソース量を減少させると同時に、相関関数のピーク又は谷を正確に決定することのできる相関関数ピーク位置決定方法を提供することを目的とする。
【0017】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明によれば、第1の画像を第2の画像と比較することによって生成された相関関数で、ピーク部分及びピーク部分以外のバックグラウンド部分をもつ相関関数のピーク位置を決定する方法において、前記第1の画像を第2の画像と比較して、前記相関関数のうちバックグランド部分に配置された相関関数値ポイントのセットにおける相関関数値を決定する比較ステップと、前記相関関数値を解析し、予め設定されたバックグラウンド部分を特徴付ける平均相関関数値、最大相関関数値、最小相関関数値、最大傾斜値、最小傾斜値のうち少なくとも1つと比較して前記ピーク部分内に存在する相関関数値ポイントを特定すると共に、前記バックグランド部分よりもさらに密に相関関数値を求め、これらの相関関数値に基づいてピーク位置を決定し、ピーク部分に属する1つの値とバックグランド部分に属する1つの値を比較する解析ステップとを有することを特徴とする方法が提供される。
【0025】
なお、本発明に係るシステム及び方法では、センサ「画像」に関連して説明を行うが、この用語「画像」は光学的画像に限定されるものではなく、1次元、2次元、又はもっと高い次元で配列されたセンサ値のセットに、もっと広く当てはまる。同様に、ここで使用される用語「ピクセル」は、光学的な画素に限定されるものではなく、1次元、2次元、又はもっと高い次元で配列されたセンサ値のセットの粒状度に、もっと広くに当てはまる。用語「画像」は全体画像に限定されるものではなく、1次元、2次元、又はもっと高い次元で配列されたセンサ値のセットを含む如何なる画像部分にも、もっと広く当てはまるようにしてもよい。
【0026】
本発明に係る相関システム及び方法の各種の実施の形態では、第1及び第2の相関画像が得られた後、信号生成処理回路が、第1及び第2の画像を用いて相関処理の実行を開始し、画像相関関数値ポイントのスパースセット(詳細後述)を決定する。画像化されるべき表面が画像化システムに対して1次元の進路上だけを移動するような実施の形態では、画像相関関数値ポイントのスパースセットが単一次元に沿ってのみ取り上げられる。これに対して、2次元に沿っての相対的な動きを許す各種の実施の形態では、画像相関関数値ポイントのスパースサンプルセットが、2次元相関関数空間でグリッドを形成する。
【0027】
一般に各種の実施の形態では、相関ピークの幅が、1次元システムでの単一次元に沿った、または画像化アレイを備えた2次元システムでの2次元の各々に沿った画像化アレイの長さ又は幅に比べ比較的小さい。一般にこうした各種の実施の形態では、相関ピークから離れたエリアでの相関関数の値は、平均値から離れた限られた範囲内でのみ通常変化する。可能な変位距離又はオフセット毎に相関関数値を決定せねばならないことなく、相関ピークの位置が第1の比較的低い解像度に特定され得る限り、画像相関関数値ポイントのスパースセットを望み通りの疎らさに設定するようにしてもよい。高空間周波数、非反復性画像においては(そこでは、撮影された画像における空間的特徴の周波数が画像撮影システムのピクセルの次元のオーダ上にある)、相関関数が一般に、単一で、一意のピーク又は谷を持つことになる。その結果として、図3,5,7−9に示すように、相関ピーク又は谷を直に囲むエリアでの場合を除いて、相関関数が通常、同じバックグラウンド値又は平均値を持つことになる。そのため、平均バックグラウンド値の周辺の限られた範囲から実質的に外れた画像相関値ポイントのスパースセットにおいて生じる如何なる相関関数値も、そうした画像のピークを特定する傾向にある。
【0028】
一方、反復性画像ではどのタイプでも、それぞれが同じサイズを持つ多数のピークが生成される。そうした画像は一意に極端な相関関数ピーク及び/又は谷を持たないので、本発明によって疎らに決定された相関関数を、そうした画像に信頼をもって使用することはできない。最終的に、画像アレイの空間解像度よりも著しく低い空間周波数の特性を備えた非反復性画像に関して、真の相関ピーク又は谷も加えた如何なる数の不規則な局部ピーク又は谷もが、画像相関関数において生じる。そのようなものにおいて、バックグラウンド値は相関関数の特定な部分を信頼性高く表し、そして、画像相関関数のバックグラウンド値から著しく離れた画像値を有する如何なる相関位置もが、画像相関関数空間での少なくとも1つの局部ピーク又は谷を特定する。
【0029】
各種の実施の形態において、画像相関関数値ポイント位置のスパースセットにおける画像相関関数値ポイントの1つで決定された画像相関値が、第1及び第2の画像の全2次元範囲に亘るピクセル毎の全相関であるようにしてもよい。しかし、画像相関関数値ポイント位置のスパースセットの1つが相関関数の真のピーク又は谷であることは非常にありそうもないことであるので、そうした正確さは不必要である。結果的に、各種の他の実施の形態では、第1及び第2の画像の行及び/又は列のうちただ1つ又は僅かのものが互いに相関付けられる。
【0030】
これは、できるだけ正確であるようにされた画像相関値を導きだすことにはならない。しかし、もっと正確な分析が行われるべき位置を示すために単にサンプリング位置が使用されるので、こうした実施の形態においてこのサンプル位置の相関関数値を決定するために必要となるシステムリソース量が著しく削減される点を特に考慮するならば、この正確性の欠如は無視され得る。現在サンプル位置が、画像化されるべき表面が画像システムに対して2次元において移動するときに生じる2次元相関空間に亘る2次元グリッドの1つであるときに、上記は特に正しいと言える。
【0031】
各種の実施の形態では、少なくとも1つの相関ピーク又は谷を画像相関関数において特定する。その後、そのようなピーク又は谷の各位置まで所定の距離内、又は動的に決まる距離内にある相関関数空間における画像相関サンプリング位置の全てを決定する。決定された画像相関サンプリング位置を解析して、画像相関関数の真のピーク又は谷に最も近い画像相関値を持つ変位ポイントを特定する。また、いくつかの実施の形態では、この相関処理を、第1及び第2の画像における全ピクセルのピクセル毎の比較に基づいて、全部実行するようにしてもよい。
【0032】
これに代わって、各種の他の実施の形態において、スパース技術で決定されたピーク又は谷を囲むこれらの画像相関位置における画像相関値を、精度を落とし、システムリソース量を減少させる命令を用いる上記の実施の形態を使用して決定し、画像相関関数の真のピーク又は谷に最も近く存在すると思われる画像相関空間における位置を低解像度で再び決定することができる。そして、第2の所定距離内又は第2の動的に決定される距離内に存在するそれらの位置において、もっと正確に決定された画像相関ピーク又は谷、実際の画像相関ピーク又は谷を、671出願で概説されるように特定することができる。
【0033】
画像化されるべき表面が非反復的で低空間周波数の画像をその上に持つような上記の実施の形態において、これらの実施例の各々を、特定されたピーク又は谷の各々に実行して、実際の相関関数ピーク又は谷の位置を決定するようにしてもよい。
【0034】
各種の他の実施の形態では、1又は2次元動作のシステムにおいて、画像システムにおける高い実効性のある「シャッタスピード」を使うことによって、鮮明な又は明瞭な画像、すなわち「非スミア」画像(詳細後述)を撮影するよりもむしろ、低シャッタスピードを使うことによって「スミア」画像を得ることができる。画像化されるべき表面は、シャッタが実効的に開いている時間の間だけ画像システムに対して移動するので、結果的に得られるスミア画像は、画像化されるべき表面と画像システムとの間の相対的動きの方向に整列されたスミア画像特徴の長軸を持つことになる。加えて、スミア画像特徴の長軸の長さは、高速シャッタスピードを使って動きの方向に沿って得られる同じ特徴の軸に比べて、光学式システムに対する画像化された表面の動きの大きさ、すなわち速度に厳密に関連している。
【0035】
1次元システムでは、システムが単一の次元に沿ってのみ動くように定義によって規制されるので、方向の情報を不必要にするようにしてもよい。この場合、スミアの大きさを、スミア画像を自身と自己相関させることによって得られる相関ピークの幅を使って決定することができる。速度ベクトルの方向もまた、撮影画像を自身と自己相関させることによって決定することができる。これもまた、相対的な動きの方向が、2次元システムにおける画像化アレイの軸の1つに沿って実質上整列されるときに正しいと言える。
【0036】
相対的な動きの方向及び大きさがいったん決定されると、その情報を、解析されるべき相関関数空間のスパースサンプリング位置の数、すなわち、画像相関関数値ポイントのスパースセットにおける画像相関関数値ポイントの数を更に減少させるために使用することができる。
【0037】
さらに、付加的な大きさ及び方向情報が第2の画像から自己相関によって得られるならば、方向若しくは大きさ及び速度ベクトルの成分の精度をさらに高めることができる。
【0038】
本発明に係る相関システム及び方法の各種の他の実施の形態では、該システム及び方法が特に、スペックル画像、テクスチュア画像、高密度ドット画像、及び他の高空間周波数画像への適用によく適合する。
【0039】
本発明に係る相関システム及び方法の各種の他の実施の形態では、該システム及び方法が特に、高速で高精度に相関関数のピーク位置を決定すると同時に、システムリソースへの負荷を減少させるために2次元相関関数空間内の通常のエリアを決定することによく適合する。
本発明の上記及び他の特徴とそれらの利点とは、本発明に係るシステム及び方法の各種の実施の形態についての以下の詳細な説明に記載され、またそれから明らかになる。
【0040】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
【0041】
図1は、相関画像に基づく(以下、「相関画像ベース」という)光学式位置トランスデューサ100の構成を示すブロック図である。下記の詳細な説明においては、本発明に係るシステム及び方法を、主にスペックル画像に基づく(以下、「スペックル画像ベース」という)光学式位置トランスデューサ並びにこれに対応する方法及び技術に関連して説明することにする。しかし、本発明に係るシステム及び方法は、そのようなスペックル画像ベース相関システム及び方法に限定されるものではない。むしろ、本発明に係るシステム及び方法は、位置的な変位またはオフセットを決定するための周知の又は今後開発されるシステムまたは方法とともに使用され得るものであり、この周知の又は今後開発されるシステムまたは方法は、相関画像が高空間周波数を有し、及び/又は全く反復性を有しない限り、テクスチュア画像、高密度ドット画像、及びそれらに類するものを含む周知の又は今後開発されるタイプの相関画像を使用する。したがって、下記の実施の形態の詳細説明では、スペックル画像ベース光学式位置トランスデューサ、相関システム及び/又は相関技術を特に引用するが、これは単なる例示であって、本発明の及ぶ範囲及び広さの限度を規定するものではない。
【0042】
ここで、真の連続相関関数(true continuous correlation function)の極値(extremum)と関連するピクセルのオフセット値を、基本的な相関関数がピ−ク又は谷を生成するか否かに拘らず、ピークオフセットと呼ぶことにし、また、ピークオフセットに対応する表面変位を、基本的な相関関数がピ−ク又は谷を生成するか否かに拘らず、ピーク変位又は単に変位と呼ぶことにする。特に、図3及び図5に示す相関関数で、任意の単位で表示される相関関数値を有する相関関数は、画像またはその強度が、第1及び第2の画像の各々で最良に整列したパターンを形成するようなオフセット値又は空間変換位置で、真の連続相関関数205の極値を示す。
【0043】
図1に示すスペックル画像ベースの光学式位置トランスデューサ100は、読取ヘッド126、信号生成処理回路200、及び光学的に粗い面(以下、これを「光学拡散粗面」という)104を含む。図1において、読取ヘッド126の構成要素、及びそれらと光学拡散粗面104との関係は、以下に更に説明するように、例示の物理的構成に概ね対応する配置で図式的に示される。スペックル画像を使用する相関画像ベースの光学式位置トランスデューサ100については、各種の適切な機械的及び光学的構成、画像相関方法、及び関連する信号処理回路とともに、引用の264出願に、より詳しく説明されている。
【0044】
なお、光を拡散する光学拡散粗面104は、光学拡散粗面104が光源130によって読取ヘッド126の端部から発射された光により照明されたとき、その発射光が、読取ヘッド126の端部に位置する画像受取光学式素子に向かって光学拡散粗面104から戻りながら散乱するように、読取ヘッド126の照明及び受取端に隣接して配置される。光学拡散粗面104は、特別に設けられた素子の一部分であってもよいし、離れて存在する機構の統一体を構成する表面として設けられてもよい。
【0045】
どちらの場合でも、光学拡散粗面104は、読取ヘッド126内に収容された光源及び光学システムから略固定した距離だけ離れて配置され、図1に示す測定軸110及び112のような、相対運動における1つ又は2つの軸に沿って読取ヘッド126に対向して移動する。2次元での運動が許されるときは、光学拡散粗面104の2次元エリアの横方向の限界内では、通常その許された運動に制約がない。単一次元の相対運動だけが許されるときは、その相対運動は通常、読取ヘッド126と光学拡散粗面104との間の適当な相対位置を維持するフレームに取り付けられた従来のガイドウェイ又はベアリング(図示せず)によって、測定軸110又は112の1つに沿うように強制される。読取ヘッド126は、読取ヘッド126を取り付けることを支援し、かつ取付フレームに対して及び/又は光学拡散粗面104の相対運動の1つ又は2つの予期される軸に対して、読取ヘッド126の内部構成物を整列させるところの整列特徴物(図示せず)を含むようにしてもよい。
【0046】
図1に示すように、読取ヘッド126の画像受取光学要素は、読取ヘッド126の照明及び受取端に位置するレンズ140を含み、このレンズ140の光軸が光学拡散粗面104上の照明された場所を概ね通過するように配置される。読取ヘッド126は更に図1に示すように、光軸に沿ってレンズ140から離れて位置するピンホール開口板150と、光軸に沿って開口板150から離れて位置する光検出器160とを含む。光検出器160は、カメラ、電子又はディジタルカメラ、CCDアレイ、CMOS光感応素子、又はそれらに類するもののような、独立した個別の光感応素子のアレイに編成された周知の又は今後開発されるタイプのいかなる光感応素材又は装置であってもよい。
【0047】
光学拡散粗面104、並びにレンズ140、開口板150、及び光検出器160を含む読取ヘッド126の配置及び位置決めの一実施例が更に、下記及び引用の264出願に説明される。読取ヘッド126の筐体内の光源130、レンズ140、開口板150、及び光検出器160の取り付けは、それらの各構成部品が精密で安定したやり方で取り付けられる限りは、小型光学式装置構成及び/又は産業用カメラ構成の従来方法によって行われるようにしてもよい。
【0048】
読取ヘッド126が光学拡散粗面104に隣接して適切に位置決めされるとき、光検出器160によって撮影された各画像は、光学拡散粗面104からの回折光波がポジティブに合成されてピークを形成する相対的に明るい点すなわちスペックルから成るとともに、光学拡散粗面104からの回折光波がネガティブに合成されて打ち消しあった相対的に暗い点から成るランダムパターンを含むことになる。光学拡散粗面104の照明された部分のどこにも対応するランダムパターンは一意的である。そのため、光学拡散粗面104は、如何なる特別なマークも必要とすることなく、変位基準としての役目を務めることができる。
【0049】
光検出器160は、少なくとも1つの軸に沿って既知の間隔で配置された画像素子162のアレイ166を有する。その既知の間隔によって、光検出器160に投影された2つの画像間の変位又はオフセットを測定するための基礎が提供され、したがって、画像を決定する表面すなわち光学拡散粗面104の変位を測定するための基礎も提供される。
【0050】
しかし一般に、アレイ166は、各軸に沿って既知の間隔で、2つの直交の軸に沿って2次元で展開される。この既知の間隔は両方の軸において同じである必要はない。単一の軸のみに沿った運動を許すシステムでは多くの場合、アレイ166が、その軸方向に交差するアレイ166の長さよりも格段に大きい長さで、その軸方向に沿った長さを有する。2次元の運動を許すシステムでは、直交する2軸の各々に沿うアレイ166の長さは、概略同じ次数(order)程度の大きさであり、正確に同じである必要はない。
更に、読取ヘッド126は、信号生成処理回路200の少なくとも1つの部分を含む。図1に示すように、光源130を制御及び/又は駆動するために、信号生成処理回路200からの信号ライン132が光源130に接続される。信号ライン164は光検出器160と信号生成処理回路200とを接続する。なお、アレイ166の画像素子162の各々は、画像素子162上の光強度を表す値を、信号ライン164を介して信号生成処理回路200に出力するために、個々にアドレス指定されるようにしてもよい。信号生成処理回路200の付加的な部分は読取ヘッド126から離れて設置されてもよく、読取ヘッド126の機能は離れて実現され、表示される。信号生成処理回路200については、図18及び図19を参照して下記により詳しく説明する。
【0051】
スペックル画像ベース光学式位置トランスデューサ100の本実施の形態及び別の実施の形態の構成及び動作に関する付加的な詳細説明を以下に行うが、この説明は引用の264出願においても提供される。
【0052】
図1に示すように、光学拡散粗面104の一部分を照明するために、光ビーム134が光源130によって発射され、光学拡散粗面104に照射される。その結果、光学拡散粗面104は光を光軸144の付近に散乱し、回折させる。
【0053】
光源130が白色光源であるとき、その光が、照明された部分の画像を生成し、それが、画像エレメント162のアレイ166に投影される。なお、スペックル画像が相関づけられるのと同じように、この画像を相関づけるようにしてもよいが、一方、この画像は、光学拡散粗面104から散乱することによって形成されるスペックルを含まないことになる。
【0054】
光源130がコヒーレントな光源であるとともに、信号ライン132上の駆動信号によって駆動されて、光ビーム134をコヒーレント光ビームとして出力するとき、コヒーレント光ビーム134は光学拡散粗面104の一部分を照明する。その照明された部分は、読取ヘッド126の光学式装置の光軸144に沿った部分に位置する。なお、光学拡散粗面104の照明された部分から散乱した光136は、レンズ140によって集光される。
【0055】
レンズ140は、集められた光142を光学拡散粗面104の照明された部分から、ピンホール開口152を有するピンホール開口板150に投影する。レンズ140は、レンズ140の焦点距離に等しい距離fだけ開口板150から離れて配置される。ピンホール開口板150は光学拡散粗面104の照明された部分から距離hだけ離れて配置される。
【0056】
開口板150をレンズ140の焦点距離fに配置することにより、スペックル画像ベース光学式位置トランスデューサの光学式装置はテレセントリック(telecentric)になる。さらに、ピンホール開口板150にピンホール152を用いることにより、スペックルサイズ及びスペックルパターンの膨張がピンホール152の寸法にのみ依存し、特に、レンズ140のレンズパラメータのどれからも独立になる。
【0057】
レンズ140からの集光142はピンホール152を通過する。なお、ピンホール152を通過した光154は光軸144に沿って、光検出器160の画像エレメント162のアレイ166に投影される。光感応素子162のアレイ166の表面は、開口板150から距離dだけ離れている。スペックルサイズは、ピンホール152の寸法に対する角度α、及びピンホール開口板150と光検出器160の画像エレメント162のアレイ166によって形成される表面との間の距離dにのみ依存する。
【0058】
光学拡散粗面104の照明された部分から画像エレメント162のアレイ166に届いた光のうち検出された部分におけるスペックルの大体のサイズDは下記式(1)で表される。
【0059】
【数1】

Figure 0004303454
【0060】
ここで、λは光ビーム134の波長、dはピンホール開口板150とアレイ166の表面との間の距離、wは円形ピンホール152の直径、αは距離dに等しい半径の円における寸法w分の円弧に対応する中心角である。
【0061】
様々な実施の形態において、光学式位置トランスデューサ100のこれらのパラメータに対する典型的な値は、λ=0.6μm、d=10cm(105μm)、w=1mm(103μm)である。結果的に、スペックルサイズDは概略60μmとなる。
【0062】
高解像度を達成するためには、平均スペックルサイズが、光検出器160の画像エレメント162のピクセルサイズに略等しいか、又はそれよりも僅か大きい場合が最も有効である。さらに、読取ヘッド126の各種の実施の形態では、平均スペックルサイズが、画像エレメント162のピクセル間隔の略2倍から10倍である。
【0063】
画像を獲得するために、信号生成処理回路200が信号ライン132に駆動信号を出力して、コヒーレント光ビーム134を発射させるべくコヒーレント光源130を駆動する。光ビーム134が光学拡散粗面104の一部分を照明し、これによって、光検出器160の画像エレメント162のアレイ166に画像が生成される。このとき、信号生成処理回路200には複数の信号部分が信号ライン164を介して入力される。ここでの各信号部分は、個々の画像エレメント162のうち1つ又はそれ以上によって検出された画像値に対応する。
【0064】
2つの画像の間で光学拡散粗面104の変位を決定するために、光検出器160から送られ信号生成処理回路200で受け取った第1の画像を表す信号部分がメモリに格納される。少しの時間の経過後、信号生成処理回路200は再度、コヒーレント光源130を駆動し、信号ライン164を介して光検出器160から第2の画像信号を受信する。一般に、第2の画像信号は、光検出器160に対する光学拡散粗面104の変位速度に応じた時間間隔で、第1の画像信号の得られた後の短い時間間隔の間に生成され、獲得されなければならない。この時間間隔は、第1及び第2の画像が十分に「重なり合って」いることを確実にするに十分な短さでなければならない。すなわち、その時間間隔は、第1の画像内に存在する画像値のパターンが第2の画像内にも存在して、2つの画像の間の重要な相関を決定することができることを確実にするに十分な短さでなければならない。
【0065】
第1の画像と、第2の画像すなわち変位された画像とに対して、相関関数を生成するために処理が行われる。実際的には、第2の画像が、2つの画像のパターンを略整列させるようなオフセットを含むオフセットのある範囲又は空間変換位置のある範囲に亘って、第1の画像に対してディジタル的に移動される。相関関数はパターン整列の度合いを示し、したがって、2つの画像がディジタル的に移動されるとき、それらの画像が整列されるのに必要なオフセット量を示す。
【0066】
図2,4及び6は、基準画像300におけるピクセル構成の一実施の形態を示す図であるとともに、単一の次元304に沿って、光検出器160のような画像撮影装置を介して画像化された光学拡散粗面104のような表面を移動することによって得られる変位画像310におけるピクセル構成の一実施の形態を示す図である。すなわち、基準画像300に対する変位画像310のオフセットは、単一の次元のみに沿って発生する。図2,4及び6に示すように、基準画像300及び変位画像310の各々は複数の行320及び複数の列330で編成される。第1の画像を第2の画像と比較する技術が他に多く存在する。例えば、図2に示すような従来の技術では、現状の第2の画像の全フレームが第1の画像の全フレームとピクセル毎に比較され、単一の相関値がそれぞれ生成される。
【0067】
このように、図2に示すような従来の技術では、変位画像310が第1のオフセット位置で基準画像300と先ず比較される。このオフセット位置では、変位画像310の左右の端が基準画像300の左右の端に並べられる。このオフセット位置で、基準画像300のピクセル302の各々を変位画像310の対応のピクセル312と比較することによって、相関関数値が決定される。その後、変位画像310が基準画像300に対して変位方向304に沿って1ピクセル分移動される。このオフセット位置で再度、変位画像310のピクセル312の各々が、そのオフセット位置における基準画像300の対応のピクセル302と比較される。各比較の行われた後に第2の画像を第1の画像に対して1ピクセル分移動することによって生成された一連の相関値は、図3に示すように、相関関数として図表化され得る。
【0068】
図2に示す特定の例では、変位画像310が基準画像300に対して左方向に6ピクセルすなわち6オフセット位置だけ移動されている。勿論、変位画像310を基準画像300に対して左及び右の両方向に変位させるようにしてもよい。また、変位画像310が、合理的で正確な相関関数値ポイントを得られそうなほど十分に基準画像300に重ね合わされている限り、変位画像310を基準画像300と突合させ続けるようにしてもよい。さらに、基準画像及び変位画像の領域に位置するが、基準画像及び変位画像のうちの他方の領域で重ねあわされることがないピクセルに関して、それらのピクセルがデフォルト値を有するピクセルと比較され、またはデフォルト比較値若しくはそれに類するものを割り当てられるようにしてもよい。
【0069】
現状の基準画像の全フレームが現状の変位画像の全フレームと比較されるとき、周期境界条件(cyclical boundary conditions)を使用するようにしてもよい。後述の数式(2)及び(3)に示すように、相関値が行毎に得られ、行相関値が合計される。そしてこの合計値が、ノイズ減少した平均相関関数値ポイントを得るために、M行に亘って平均化される。この平均化は、相関関数値ポイントが、相関関数の極値を決定するために補間を行うことによって得られる解像度に対しておおよそ安定になることを確実にするために望ましいことである。したがって、相関関数の極値を決定するべく補間を行うことによっておおよそナノメータの解像度を得るために、各相関関数値ポイントが隣接の相関関数値ポイントから約1μmだけオフセットされているとき、相関関数値ポイントが所望のナノメータ解像度値に対して大体安定になる必要があると考えられる。
【0070】
図3は、前述の従来の乗算(multiplicative)相関関数方法による図2に示す従来技術を使って第1及び第2の画像を比較した結果を示すグラフである。図3に示すように、相関関数400が、オフセット位置毎に相関関数値ポイントの各々をおおよそ接続することによって生成される。ここで相関関数400は、距離404で示すピクセルピッチPに対応する所定のオフセット増分だけX軸方向に離れた複数の離散相関関数値ポイント402を含む。この所定のオフセット増分は、図1に示す光学拡散粗面104の変位増分に直接関連するようにしてもよい。この変位増分は、測定軸110に対応する方向におけるアレイ166の個々の画像エレメント162の間の中心点どうしの実効距離に依存する。またこの変位増分は、以下の説明ではピクセルピッチPとも呼び、また読取ヘッド126の光学式装置による光学拡散粗面104の変位の拡大量とも呼ぶ。
【0071】
例えば、測定軸110に対応する方向における画像エレメント162の中心点どうしの実効距離が10μmであり、読取ヘッド126の光学式装置が表面変位を10倍ほど拡大するならば、光学拡散粗面104の照明された部分の1μmの変位は、画像エレメント162上のスペックルパターンの10μmの変位に拡大される。
【0072】
相関関数値ポイント402の各々は、測定軸110に対応する方向における画像エレメント162の中心点どうしの実効距離だけ第1の画像に対して第2の画像をディジタル的に移動することによって生成される。この場合、画像エレメント162の中心点どうしの実効距離が光学拡散粗面104の約1μmの変位に対応するので、離散相関関数値ポイント402は約1μmの変位距離だけ離されることになる。
【0073】
図3に示すように、相関関数400の「特性(landscape)」は2つの異なる部分、すなわち通常バックグラウンド部分410とピーク部分420とに分割することができる。通常バックグラウンド部分410では、相関関数が比較的限られた範囲内の値を示し、実質的に平坦または一定である。ピーク部分420では、ピーク又は谷の極値が存在するとともに、実質的に急峻な傾斜部分を持ち、及び/又はバックグラウンド部分410での上記限られた範囲を実質上はみ出した相関値を示す。特に、通常バックグラウンド部分410は、ピーク部分420に含まれる相関関数値の範囲よりも実質上小さい値の範囲412内に相関関数値をもつ相関関数値ポイント402からなる。この範囲412はしばしば、ここに説明する各種の実施の形態では、相関関数の相関関数値の範囲に比べ狭いことがあるが、ピーク部分420を通常バックグラウンド部分410から確実に区別できる限り、範囲412は、相関関数の相関関数値の範囲に対して如何なる特別な関係も持つ必要がない。かくして、通常バックグラウンド部分410での相関関数の偏移は相関関数ピークから容易に区別できるが、これ以外の場合には各種の適用例において実際上著しくでこぼこしているかもしれない。
【0074】
なお、通常バックグラウンド部分410では、相関関数値ポイント402が最大バックグラウンド値414よりも大きくなく、最小バックグラウンド値416よりも小さくない相関関数値を有する。これとは対照的に、ピークタイプの相関関数値においては、ピーク部分420内に位置する相関関数値ポイント402のほとんど全てが、最大バックグラウンド値414よりも著しく大きい相関関数値を有する。同様に、谷タイプの相関関数値においては、ピーク部分420内に位置する相関関数値ポイント402のほとんど全てが、最小バックグラウンド値416よりも著しく小さい相関関数値を有する。
【0075】
一般に、相関関数ピーク部分420内に位置する相関関数値ポイント402は通常、2つの画像が最も密接に整列されているオフセット位置を表す現実の相関関数ピーク422の両側にほとんど等しく配置される。したがって、現実の相関関数ピーク422は、相関関数ピーク部分420の幅424の中心点又はその付近に大体は位置する。
【0076】
しかし、上記に概説したように、この従来の技術では、ピクセルどうしの各相関値を決めるために、また第1の画像におけるピクセル毎のピクセルどうしの各比較用の相関値を蓄積するために、また適切なスケーリング基準を適用するために、また可能性のある相関関数値ポイント402の各々に対してこれを実行するために、かなり大きいシステムリソース量が提供されねばならない。これは特に、第2の画像が第1の画像に対して少なくとも2つの直交方向に移動できるときに正に当てはまる。この場合、単一の全フレーム比較が、行方向に位置するm列の各々において可能なオフセット毎に行われるばかりでなく、列方向に位置するn行の可能なオフセット毎に、m列のオフセット毎とともに行われる。
【0077】
したがって、この従来の技術では、1次元変位に関して、第1の画像及び第2の画像の各々が、M行のピクセル及びN列のピクセルの2次元アレイにおいて配置されたM×Nピクセルから成るとき、1つの共通の相関アルゴリズムは下記式(2)のようになる。
【0078】
【数2】
Figure 0004303454
【0079】
ここで、R(p)は現在のオフセット値に対する相関関数値、pはピクセル単位の現在のオフセット値、mは現在の列、nは現在の行、I1は第1の画像における現在のピクセルの画像値、I2は第2の画像における画像値である。
【0080】
この従来の技術では、pは−Nから+Nまで1ピクセルずつ変化する。しかし通常、pの範囲は−N/2から+N/2まで、−N/3から+N/3まで、またはこれに類する範囲に制限される。
【0081】
2次元変位に関しては、現在の基準画像及び現在の変位画像の各々が、M行のピクセル及びN列のピクセルの2次元アレイにおいて配置されたM×Nピクセルから成るとき、1つの共通の相関アルゴリズムは下記式(3)のようになる。
【0082】
【数3】
Figure 0004303454
【0083】
ここで、R(p,q)は2次元の各々における現在のオフセット値に対する相関関数値、pは第1の次元に沿ったピクセル単位の現在のオフセット値、qは第2の次元に沿ったピクセル単位の現在のオフセット値、mは現在の列、nは現在の行、I1は第1の画像における現在のピクセルの画像値、I2は第2の画像における画像値である。
【0084】
この従来の技術でも同様に、qが−Mから+Mまで1ピクセルずつ変化する。しかし通常、qの範囲は−M/2から+M/2まで、−M/3から+M/3まで、またはこれに類する範囲に制限される。
【0085】
結果として、この従来の技術では、1次元変位において、2M個の相関関数値ポイントまでの相関値を、また2次元の変位が許されるシステムにおいては、2M×2N個の相関関数値ポイントまでの相関値を決定することが求められる。そのため、従来の全フレーム解析では、1次元変位においてシステムリソース量が過剰に消費され、また2次元変位においてはその度合いがずっと高くなる。その結果、全フレーム相関には、著しい処理能力と高速プロセッサとのうち一方又は両方を持つシステムが必要となる。こうしたシステムがなければ、全フレーム相関関数ピーク探索処理をリアルタイムで実行することは不可能となる。
【0086】
しかし、引用した671出願に概説されるように、補間によって非常に高精度にオフセット位置の決定を行ったときでも、通常、相関関数400のピーク部分420における極値付近の数ポイントのみが、実際のオフセット位置の決定に使用されるだけである。そのため、相関関数ピーク部分420に位置する相関関数値ポイント402のうちいくつかはオフセット位置の決定に使用されないし、バックグラウンド部分410内に位置する相関関数値ポイント402はどれもがそれに使用されない。
【0087】
そこで発明者は、相関関数400のピーク422に近い各相関関数値ポイントの全相関関数値を決定することが望ましくなる前に、相関関数ピーク部分420内にある相関関数値ポイント402の位置を突き止めることによって、相関関数ピーク422の位置を概ね決定することが正に必要であるということに注目した。また発明者は、相関関数ピーク部分420内に位置するそのような相関関数値ポイント402が、相関関数400を疎らに検索することにより、及び相関関数400に疎らに配置された1つ又はそれ以上の相関関数値ポイント402の相関関数値を決定することによって、特定され得ることに注目した。
【0088】
上記に指摘したように、ピーク422周辺の僅かの相関関数値ポイント402がしばしば、相関関数400の真のピークのオフセット位置を決定するために使用される。そこで発明者は、ピーク422のオフセット位置を決定するために、相関関数400のピーク部分420内に位置するスパースセット(sparse set、疎らに配置された相関関数値ポイントの組)における相関関数値ポイント402のいくつかだけを使用することが可能であるかもしれないということに注目した。すなわち、ピーク422のオフセット位置を、相関関数400のピーク422に近い各相関関数値ポイント402の相関関数値を決定しなくとも決定できる。
【0089】
発明者はまた、本発明に係るシステム及び方法において使用される相関関数値ポイントのスパースセットの技術が特に効果を挙げる高空間周波数画像に関して、通常バックグラウンド部分410の範囲412における値の平均値についての多少の先験的知識(priori knowledge)が、及び最大バックグラウンド値414及び最小バックグラウンド値416の近似値についての多少の先験的知識が一般的に存在することに注目した。
【0090】
例えば、図1に示すスペックル画像ベースの光学式位置トランスデューサ100において、光学拡散粗面104がそのような高空間周波数画像を生成する。そのような高空間周波数スペックル画像が、所与の光学拡散粗面104における上記に説明した基準画像及び変位画像として使用されたとき、バックグラウンド部分410の最大バックグラウンド値414及び/又は最小バックグラウンド値416は非常に安定していて、スペックル画像ベースの光学式位置トランスデューサ100の製造過程で決定され得る。その結果、使用された相関関数の方式に応じて最大バックグラウンド値414又は最小バックグラウンド値416を信号生成処理回路200に格納することができ、スレッショールドとして使用することができる。実際上は、スペックル画像ベース位置トランスデューサ100において、レーザ強度に対する相関関数値R(p,q)の依存性を取り除くために、R(p,q)がしばしば、画像強度の平均値に関連して正規化される。これにより、これらの状態では相関関数の値が実際に相関関数の正規化値となる。
【0091】
すなわち、信号生成処理回路200は、ピーク部分420の相関関数値ポイントがそれ以上又は以下になるに違いない相関関数バックグラウンド値414又は416に関しての先験的知識を有する。その結果、先験的値との簡単な比較が行われ、最大バックグラウンド値414より上に位置し、又は最小バックグラウンド値416より下に位置する、相関関数値を持つ単一の相関関数値ポイントを発見することにより、ピーク部分420の大体の位置が迅速に決定される。
【0092】
発明者は更に、そのような高空間周波数画像におけるピーク部分420の幅424が相関関数領域の全範囲に比べ概ね狭いということを発見した。発明者はまた、ピーク部分420の端における相関関数値ポイント402の相関関数値が、通常バックグラウンド部分410内に位置する相関関数値ポイント402の平均相関関数値から明らかにそれているということを発見した。すなわち一般に、実際の相関関数ピーク422のすぐ近傍まで、そうした高空間周波数画像が、ピーク部分420から遠い位置よりもピーク部分420に近い位置で、より相関づけられることがなくなる。これとは対照的に、Musmann に開示されるスパース検索技術で使用される画像のような非高空間周波数画像は、非常に広く浅い相関関数値ピークを有する。すなわち、Musmann に開示される技術は、全部のポイントでの相関関数が相関関数ピーク位置の方向に向いた勾配を有するという理由だけで、作用する。
【0093】
或る局面では、基準画像300及び変位画像310として使用されるべき特定な画像についての利用可能ないかなる先験的知識も存在しないかもしれない。しかし、発明者はさらに、そうした先験的知識が利用できなくとも、相関関数400が決定されるときはいつでも、そうした先験的知識を容易に引き出すことができるということに注目した。すなわち一般に、大抵の高空間周波数画像、バックグラウンド部分410の平均値、及び範囲412にとって、通常バックグラウンド部分410の最大バックグラウンド値414及び最小バックグラウンド値416は略安定であり、特に、ピーク部分420内に位置する相関関数値ポイント402に対応して得られる相関関数値と比較して安定である。
【0094】
このため、これらの値を、変位画像を基準画像と従来のように比較することによって得られた、十分に明確にされた相関関数から引き出すことができる。これらの値はまた、所与の画像をそれ自身と比較することによって、すなわち自己相関によって引き出され得る。加えて、上記に概説した理由と同じ理由により、自己相関関数のピーク部分の幅(ゼロオフセット位置での定義による)を、ゼロオフセット位置から遠い相関関数値ポイントの相関関数値を決定することなしに、ゼロオフセット位置近くの相関関数値の少なくとも1つのサブセットの相関関数値を決定することによって決定できるようにしてもよい。同様に、図3を参照して上記に概説した理由と同じ理由により、画像の全ピクセルよりも少ないピクセルを、自己相関関数における相関関数値の生成に使用できるようにしてもよい。
【0095】
図4及び図5に示す本発明に係る第1の実施の形態では、図2及び図3を参照して説明した従来の画像相関関数ピーク探索処理に代わって、画像相関関数のピーク探索が2(又はそれ以上)段階の処理として行われる。特に、図4に示すように、列330毎に変位画像310を基準画像300と比較するよりも、変位画像310を基準画像300と、互いに離れて選択された列332でのみ比較する。
【0096】
例えば、図4に示す実施の形態では、変位画像310が現在、列332−2に対応するオフセット位置で基準画像300と比較されている。前回の比較では、変位画像310が、今回の列332−2から1つ又はそれ以上スキップした列332だけ離れている列332−1に対応するオフセット位置で基準画像300と比較されている。同じように、変位画像310の基準画像300との次回の比較は、今回の列332−2から1つ又はそれ以上スキップした列332だけ離れている列332−3で行われる。
【0097】
すなわち、第1のステージでは、多数の疎らに配置されたオフセット位置において、変位画像の全ての行が基準画像の対応の行と全部比較されて、相関値が生成される。これにより、各比較が行われた後、図5に示す相関値に対応するそのような一連のスパース相関値、すなわち相関関数値ポイント402のスパースセットが、変位画像310を基準画像300に対して、所定数のピクセル分、若しくは動的に決定される数のピクセル分だけ、又は連続した所定のオフセット位置における次の位置に、若しくは動的に決まるオフセット位置に移動することによって生成される。
【0098】
次に、本発明に係るスパース検索技術の第1の実施の形態では、第1のステージで決定された相関関数値ポイント402のスパースセットに対して解析が行われ、これによって、バックグラウンド部分410の相関関数値の範囲412の外側に位置するスパースセットの相関関数値ポイント402が特定される、すなわち、相関関数400のピーク部分420内に位置するスパースセットの相関関数値ポイント402が特定される。上記に概説したように、本発明のシステム及び方法において使用される光学拡散粗面104での画像のような高空間周波数画像では、相関関数の通常バックグラウンド部分410における相関関数値ポイント402、すなわち、ピーク部分420に位置しないポイント402が、通常バックグラウンド部分410の平均値からほんの僅か離れて分布する値を有する。すなわち、通常バックグラウンド部分410の相関関数値ポイントの値は、最大バックグラウンド値414よりも大きくならないし、また、最小バックグラウンド値416よりも小さくならない。
【0099】
かくして、図5に示す疎らに配置された相関関数値ポイントのセットにおける各相関関数値ポイント402の画像値を、最小バックグラウンド値416または最大バックグラウンド値414と比較することによって、スパースセットの相関関数値ポイント402を、バックグラウンド部分410の一部またはピーク部分420の一部として容易に分類することができる。ピーク部分420内に位置するスパースセットの相関関数値ポイント402のうち1つ又はそれ以上の相関関数値ポイント402を特定した結果、ピーク部分420及び相関関数のピーク又は谷を、だいたい特定することができる。
【0100】
これに代わって、本発明に係るスパース検索技術の第2の実施の形態では、第2のステージで決定された相関関数値ポイント402のスパースセットを解析し、傾斜スレッショールドよりも大きな傾斜を持つスパースセットの相関関数値ポイント402における隣接の対のポイントが特定される。すなわち、図3,5,7−10に示すように、バックグラウンド部分410内に位置する隣接した相関関数値ポイント402間で規定された相関関数の傾斜の絶対値は、ピーク部分420内に位置する少なくとも1つの対を持つ隣接する相関関数値ポイントにおける多くの対の間の傾斜の絶対値よりも著しく小さい。
【0101】
したがって、バックグラウンド部分内に両方とも位置する2つの相関関数値ポイントのどのセットの間における傾斜の最大絶対値も、傾斜スレッショールドとして決定され得る。そして、スパースセットの隣接の相関関数値ポイントのどのセットに対しても、それらの2つのスパース相関関数値ポイントの間における相関関数のスパース傾斜を決定することができる。その傾斜の絶対値は傾斜スレッショールドと比較され得る。スパース傾斜の絶対値が傾斜スレッショールドよりも大きいならば、隣接する相関関数値ポイントの対の少なくとも1つはピーク部分420内に位置する。
【0102】
これとは別に、最大正値傾斜及び最大負値傾斜を1対の傾斜スレッショールドとして同様に決定することができる。そして、スパース傾斜の値をその1対の傾斜スレッショールドと比較することができる。そこで、スパース傾斜が正値傾斜よりももっと正側にあるか負値傾斜よりももっと負側にあるならば、隣接する相関関数値ポイントの対の少なくとも1つはピーク部分420内に位置する。
【0103】
勿論、隣接する相関関数値ポイントの1対の両方がピーク部分420内に位置する限り、その相関関数値ポイントの対における傾斜の絶対値が上記の絶対値より小さいか若しくは等しいか、又はその傾斜が最大正値傾斜と最大負値傾斜との間の値であるようにしてもよい。これが、上記に説明したスパース検索技術に悪影響を及ぼすことを防止するために、相関関数値ポイントのスパースセットのうち隣接のものの対のいくつか又は全てが各種の実施の形態で解析される。バックグラウンド部分410の平均値、最小値、及び/又は最大値のような傾斜スレッショールドまたは傾斜値を、自己相関関数から又は1セットの代表画像の相関関数から決定するように、又は予め決定するようにしてもよい。
【0104】
そして、第2のステージでは、ピーク部分420の上記大体決められた位置に基づき、第1及び第2の画像が相関空間の周囲位置で、すなわち、ピーク部分420内に位置するオフセット位置で比較され、上記大体決められたピーク部分420内に位置する相関関数値ポイント402の全ての、又は少なくとも十分な数の相関値を生成する。特に、スパース検索が単に1つ又は数ピクセル分のピクセル変位を失うだけのため、第2のステージではしばしば、ピーク相関値に対応するピクセル変位が明確に決定される。引用の761出願に説明されているように、実際の相関ピーク422の周辺の相関値だけが、補間されたサブピクセル変位を決定するために使用されるようにしてもよい。かくして、上記の大体決定される相関ピーク422又は谷の周辺だけで、付加的な数の相関関数値ポイント402を決定する必要がある。
【0105】
図4及び図5に示す特定な実施の形態では、図2及び図3に示す実施の形態に比べ、2つ置きのオフセット位置だけが、相関関数値ポイント402を決定するために使用される。結果的に図5に示すように、相関関数値ポイント402のスパースセットのうち4つの相関関数値ポイント402a−402dだけが、相関関数ピーク部分420の幅424内に位置することになる。しかし、図2及び図3に示す従来技術におけるM個の相関関数値ポイントに比べ、M/3(又はもっと少ない数)個の相関関数値ポイント402だけがピーク部分420を構えるために決められる。勿論、ずっと多くの疎らに配置されたセットのオフセット位置を使用するようにしてもよい。
【0106】
なお、相関関数値ポイント402bは、バックグラウンド部分410の平均値から最も遠い相関関数値を有する。この相関関数値ポイント402bは、相関関数ピーク部分420内に位置するが、バックグラウンド部分410の平均値に、より近い相関関数値を有する1対の相関関数値ポイント402a及び402cによって挟まれている。したがって、実際の相関関数ピーク422は、第1の相関関数値ポイント402aと第3の相関関数値ポイント402cとの間のどこかに存在する筈である。
【0107】
かくして、第1及び第3の相関関数値ポイント402a及び402cに対応するオフセット位置の間にある付加的な高解像度オフセット位置に対する相関関数値ポイントを決定することだけが必要である。さらに、相関関数値ポイント402の全セットの間で補間を行うために、または相関関数値ポイント402の全セットに曲線を適合させるために使用される特定な技術に応じて、例えば、相関関数値ポイント402bから2つ又は3つの高解像度オフセットステップ内のオフセットような、相関関数値ポイント402bに近いオフセットの相関関数値ポイントを決定することだけが必要であるかもしれない。
【0108】
上記で説明したように、図5に示す実施の形態では、相関関数値ポイントのスパースセットが、2つのオフセット位置置きに相関関数値を決定することによって生成される。すなわち、図5に示す実施の形態では、相関関数値ポイントのスパースセットが、所定数のオフセット位置又はピクセルだけスキップすることによって生成される。
【0109】
一般に、上述したように、本発明のシステム及び方法が特に適用可能である高空間周波数画像においては、バックグラウンド部分410の平均値、バックグラウンド部分410の最大値及び最小値414,416、並びに/又はピーク部分420の幅424及び大体の高さを、既知の物体を画像化するシステムの先験的知識として知ることが可能である。そのような状況には、図1に示すスペックル画像ベース光学式位置トランスデューサシステム100での光学拡散粗面104を画像化することが含まれる。
【0110】
このような状況においては、ピーク部分420の幅424が分かっているので、相関関数値ポイント402のスパースセットの少なくとも1つが、如何なる相関関数400でもその位置に拘らず、ピーク部分420の幅424内に確実に位置するように、相関関数値ポイント402のスパースセットに含まれる相関関数値ポイント402の所定数、すなわちそれらの間隔を、選択することができる。しかし、スパースセットの相関関数値ポイント402のうち2つまたは3つがピーク部分420の幅424内に確実に位置するように、望ましくは、相関関数値ポイントのスパースセットに十分な数の相関関数値ポイント402を含ませる(及びこれにより、より小さな空間を持たせる)ようにしてもよい。
【0111】
しかし上記のように、スパースセットに含まれるべき相関関数値ポイント402の数(及び相関関数値ポイント402のうち隣接するものの対の間隔)を動的に決定することによって、及び連続した順序で決定されるべき相関関数値ポイント402の所定の順序を決定すべく上記の数を使用することによって、又は連続した順序で決定されるべき相関関数値ポイント402の順序を動的に決定することによって、相関関数値ポイント402のスパースセットが、他の実施の形態において生成され得る。スパースセットに含まれるべき相関関数値ポイント402の数を動的に決定するとき(特に言わずとも、上記の間隔を決定することも含まれる)、前回の相関イベントで決定された前回のオフセットのスパースセットビュー(view)を動的に決定する場合のように、スパースセットを相関イべント毎に動的に決定するようにしてもよい。または、スパースセットを、相関処理において使用されるベース画像への変化に基づき動的に決定するようにしてもよい。ポイントのスパースセットを、通常処理の前に行われるセットアップモード若しくは校正モードの間に、又は各種の実施の形態において通常処理の間にほぼリアルタイムで若しくはリアルタイムで、動的に決定するようにしてもよい。
【0112】
さらに、バックグラウンド部分410の範囲412の外側に位置する相関関数値を有した相関関数値ポイントはどれも、各種の実施の形態において、相関関数ピーク部分420の場所を特定するので、ピーク部分420内に位置する相関関数値ポイントのスパースセットのうち第1の決定された1つから、ピーク幅424よりも大きい距離だけ離れて位置する相関関数値ポイントの相関関数値を決定することは除外するようにしてもよい。この結果、相関関数ピーク部分420の幅が横断されたときはいつも、解析されていなかった相関関数値ポイント402のスパースセットのうちの相関関数値ポイント402をスキップすることによって、相関関数値ポイント402のスパースセットを更に減少させることが可能になる。
【0113】
すなわち、バックグラウンド部分410の正方向に向かう極値のための最大バックグラウンド値414より大きい相関関数値、又は負方向に向かう極値のための最小バックグラウンド値416より小さい相関関数値を有した相関関数値ポイントが特定されたときはいつでも、ピーク部分420の大体の場所が決定される。さらに、上述したように、ピーク部分420の幅424は多くの適用例において、相関関数400の範囲に比べ非常に狭い。その結果、上述したように、ピーク部分420の大体の場所が特定されたときはいつでも、ピーク部分420における相関関数値ポイント402から、ピーク部分420の幅424よりも大きい距離だけ離れた如何なる相関関数値ポイント402に対する相関関数値を決定することも本質的に無用である。
【0114】
図3及び図5を参照して上記に説明した第1の実施の形態と更に別の実施の形態では、この結果を利用した、決定されるべき相関関数値ポイントのスパースセットに含まれる相関関数値ポイントの「2進」連続を利用するようにする。これは、相関関数値ポイント402のスパースセットのための或る1つのタイプの所定連続である。相関関数の間隔は、各極値オフセット位置で、かつ極値オフセット位置間のほぼ中間に位置するオフセット位置において、相関関数値ポイント402の相関関数値を最初に決定することによって、2進検索技術を用いて検索され得る。これらの相関関数値ポイント402のどれもがピーク部分420内に存在しないならば、予め決定された隣接する相関関数値ポイントの各対の間の略中間に位置する付加的な相関関数値ポイント402を決定することができる。この処理は、ピーク部分420に存在する相関関数値ポイントが特定されるまで繰返される。重要なことは、この反復処理を、そのような相関関数値ポイント402の少なくとも1つが特定された後は、継続する必要がないということである。
【0115】
このように、第1の反復では、第1の極値オフセット位置をオフセット位置−Lで有するとともに、第2の極値オフセット位置をオフセット位置+Lで有する相関関数400において(Lは画像フレーム次元に通常関連する)、−L,+L及び0のオフセット値を有する相関関数値ポイント402に対する相関関数値が決定される。そして第2の反復では、−L/2及び+L/2のオフセット値を有する相関関数値ポイントに対する相関関数値が決定される。更に第3の反復では、−3L/4,−L/4,+L/4及び+3L/4のオフセット値を有する相関関数値ポイント402に対する相関関数値が決定される。これが、相関関数値ポイント402の全スパースセットに対する相関関数値が決定されるまで、又は、これはもっと適当であるが、ピーク部分420の場所が特定されるまで続けられる。勿論、どの特定な反復の間においても、その反復において決定されるべき相関関数値ポイント402の1つがピーク部分420内に存在するならば、その相関関数値ポイント402からピーク部分420の幅424より大きい距離だけ離れたその反復における相関関数値ポイント402の他のどれもが、それらの相関関数値を決定してもらう必要がないようにしてもよい。
【0116】
この特定な変形例では、ピーク部分420の大体の場所がこの2進検索を用いて特定されたときはいつでも、第2のステージが実行され、ピーク部分420に存在するかもしれない相関関数値ポイント402の各々の相関関数値を決定する。これに代わって、第2のステージの変形として、ピーク部分内に位置する単一の相関関数値ポイントのみが通常この2進検索技術を用いて特定されるので、この変形の第2のステージでは、ピーク部分420内に位置する相関関数値ポイント402の周辺に配置された相関関数値ポイントの規則正しい間隔を持つスパースセットを、ピーク部分420の場所をより精密に決めるべく決定するようにしてもよい。
【0117】
そして、第3のステージでは、前述の第1の実施の形態で説明した第2のステージに関連して上述したように、ピーク部分420内の最も遠い相関関数値ポイント402b及び隣接の相関関数値ポイント402a及び402cを、第2のステージで決定された相関関数値ポイントのこのスパースセットから特定することができる。そして、最も遠い相関関数値ポイント402bに隣接し、相関関数値ポイント402aと相関関数値ポイント402cとの間に位置する相関関数値ポイントの少なくともいくつかを、特定な補間技術を実行するのに必要な相関関数値ポイント402を提供するべく決定することができる。
【0118】
図4及び図5に関連して上記に説明したスパースセット技術と更に別の実施の形態では、単一のスパースセットを用いるよりもむしろ、第1のステージにおいて、例えばピーク部分420の幅424よりも大きい間隔を有する相関関数値ポイントの第1の例示のスパースセットを使用することができる。そして、この間隔の大きいスパースセットの相関関数値ポイントのどれもがピーク部分420内に存在しないならば、第2のステージでは、相関関数値ポイント402の間隔の大きいスパースセットを所定量だけオフセットすることができる。または、間隔がそれよりは小さい第2のスパースセットを使用することができる。さらにピーク部分420の位置を決定できないならば、第3、第4などの、継続的により小さいオフセット、または間隔がより小さいスパースセットを用いた後続の反復処理を、ピーク部分420の場所が決まるまで行うことができる。
【0119】
ピーク部分420の場所が決まると、間隔がより小さい後続のスパースセットのどれもが、現状のスパースセットの相関関数値ポイントの残余であるので、それらを除外することができる。そして、図4及び図5に関連して説明した第1の実施の形態において上記に説明した第2のステージに対応する最終のステージを、相関関数ピーク402の実際の位置を決定するために役立つ相関関数値ポイント402を提供するべく実行してもよい。特に、各スパースセットにおける相関関数値ポイント402の場所が、2進検索技術の変形技術におけるように極値オフセット位置に対して正確に規定されないことを除いては、上記の実施変形例が2進検索技術の変形技術に本質的に類似するようにしてもよい。
【0120】
図6及び図7は、本発明に係る画像相関関数値ポイントのスパースセットの比較技術の第2の実施の形態を図示する。特に、図6及び図7に図示した第2の実施の形態において、発明者は、本発明のシステム及び方法が特に適合される高空間周波数画像において、どの特定の相関関数値ポイント402の相関関数値を決定するときにも、相関関数400の正規化されたバックグラウンド部分410と正規化されたピーク部分420との間の関数的な関係を実効的に変更することなく、全てのピクセルよりも少ない数のピクセルを使用してその決定を行うことができる点に注目した。
【0121】
すなわち、図4に示す相関関数400と同じように、図7に示す相関関数500は、ポイント502a−502dを含んだ相関関数値ポイント502を有する通常バックグラウンド部分510を備え、この通常バックグラウンド部分510は、ピーク部分520に含まれる相関関数値の範囲よりも概略小さくて、範囲512内に位置する相関関数値を有する。範囲512は、最大バックグラウンド値514及び最小バックグラウンド値516によって規定される。相関関数500は同様に、相関関数500の領域に比べて一般的に狭い範囲の幅534からなるピーク部分520を有する。相関関数500がとり得る相関関数値の範囲を除いて事実上、相関関数500の全体形状は、相関関数400の形状と少しも区別ができない。そのため、図6に示す第2の実施の形態におけるいくつかの実施例では、相関関数値ポイント402を決定するために、変位画像310内の各行Mの各ピクセルを、基準画像300内の対応の行及びピクセルと比較することよりもむしろ、ほんの僅かな数の行M及び極値ではたった1つの行Mが、特定な相関関数値ポイント502の相関関数値を決定するために比較される。
【0122】
図8は、相関関数値ポイント402及び502の相関関数値を決定するときに、基準画像300及び変位画像310の異なる量のピクセルを使うことによって得られる各種の異なる相関関数400,500,500′及び500″を図示する。図8に示す相関関数400,500,500′,500″が、図3,5,7に示す乗算相関関数と対照をなして、平均差相関関数(average difference correlation function)であるようにしてもよい。特に、図8に示すように、相関関数値を決めるために用いられるピクセルの行の数が、相関関数500,500′,500″において段階的に小さくなるにつれて、バックグラウンド部分510の平均値、及びバックグラウンド部分510における平均値とピーク部分520に位置する相関関数値ポイント502の極値との差の両方が小さくなる。
【0123】
同時に、バックグラウンド部分510におけるノイズ、すなわち対応する最大バックグラウンド値514と最小バックグラウンド値516との間の範囲512が増加する。この実施の形態では、信号は、ピーク部分520に存在する相関関数値ポイントの極値の、対応のバックグラウンド部分510の平均値からの差である。行の数が減少するにつれてノイズが増え、また、ピーク部分520の極値と、対応のバックグラウンド部分510の平均値との差が減少するので、信号対雑音比が、ずっとより高速に減少するということができる。
【0124】
しかし、図8に示すように、ピクセル間隔の点から見て、ピーク部分520の相対的な幅524がほとんど変化しない。一般に、ピーク部分520の幅524、すなわち範囲512に近いが、範囲512の外側に位置する相関関数値ポイント間のオフセット差が、より大きなノイズのために、増加するよりもむしろ事実上、概して減少する。すなわち、バックグラウンド部分510の付加的なノイズによって大きくなる範囲512が、ノイズがより少ない第1の実施の形態であればピーク部分420の一部分として決定されたはずの相関関数値ポイント502を取り込むことになる。
【0125】
相関関数値ポイント402のスパースセットに含まれるべき相関関数値ポイント402の数を決定するための上記に説明した各種技術のいずれを、この第2の実施の形態の相関関数値における比較されるべき画像ピクセルの数を限定する技術と組み合わせるようにしてもよい。これにより、システムリソース量及び処理時間、並びに相関関数値ポイント502のスパースセットに含まれる相関関数値ポイント502の各々の相関関数値を決定するために必要となるパワーを一層更に減少させることが可能となる。
【0126】
例えば、各種の実施の形態において、少数の行だけが比較されるので、各比較が迅速に行われ得る。しかし、全体画像よりも少数の行だけが使用されるため、相関関数値ポイント毎に得られる相関関数値は、第2の画像の全部の行をそうした相関関数値ポイント毎の第1の画像の対応の行と比較することから得られる相関関数値に単に近いという関係にある。それにも拘らず、その近い相関関数値はなお、ピーク部分520の大体の場所を示すことができる。稀に、或る環境では著しく稀に、ピクセルが、相関関数値ポイント502のスパースセットにおける相関関数値ポイント502の相関関数値の決定に利用されるので、ピーク部分520の大体の場所の決定に必要なシステムリソース量が減少し、時として非常に減少する。
【0127】
図9は、変位画像310と基準画像300とを相関させることによって得られる従来の相関関数600のグラフである。ここでは、変位画像310が基準画像300に対して2次元方向に変位され得る。特に、図9に示すように、相関関数600は、図3,5、及び7に示す1次元相関関数に比べ、2次元方向に展開する。なお、図9に示す従来の2次元相関関数600では、相関関数値ポイント602のポイントが非常に密集したセット(以下「デンスセット」という)が、従来の2次元相関関数600に対して決定される。したがって、2次元相関関数600のピーク部分620の位置及び相関関数ピーク(この場合は谷)622の位置は、非常に正確に決定される得るものの、相関関数値ポイント602のデンスセットの決定に多くのシステムリソースを必要とするため、これが、高速データプロセッサを使用したとしても、リアルタイムで相関関数600を決定することを、不可能ではないとしても、困難にしている。
【0128】
このため、図10に示すように、相関関数600の全相関関数値ポイント602のセットから選択された相関関数値ポイント606のスパースセットが、1次元相関関数400及び500を基に上記に説明した第1の実施の形態によって使用されるならば、相関関数値ポイント606の2次元のスパースセットの決定に必要なシステムリソース量はかなり縮減される。図10に示すように、或る実施の形態では、相関関数値ポイント606のスパースセットは、2次元相関関数600中で、例えばグリッドのように規則正しく配置され得、これによって、相関関数値ポイント602のスパースセット606のうち少なくとも1つが狭いピーク部分620内に位置することを確実にする。図10には、間隔が疎らに配置された相関関数値ポイント606のグリッドの一部分だけが明示されている。なお、相関関数値ポイント602のスパースセット606を2次元相関関数600内でどんな方法で配置するようにしてもよい。
【0129】
特に、相関関数値ポイント606のスパースセットは、第1の実施の形態に関連して説明したマルチレベル検索技術の変形例を基に、上記に説明したように順に検索される相関関数値ポイント602の各種のサブセットに分解され得る。同様に、別の実施の形態では、上記に説明した1次元2進検索技術に類似した2次元2進検索技術を使用することができる。
【0130】
最後に、上記に説明した第2の実施の形態におけるように、基準画像及び変位画像の全ピクセルを比較するよりもむしろ、基準画像及び変位画像のピクセルのサブセットだけを比較するようにしてもよい。この結果、第2の実施の形態に関連して上記に説明したように、各相関関数値を決定するために必要なシステムリソース量が更に著しく減少することになる。
【0131】
上記に説明したように、相関関数値ポイント606のスパースセットの第1の又は多数のステージの各々における相関関数値が決定及び解析された後、2次元相関関数600のピーク部分620の位置がひとたび決定されると、671出願に説明される技術を使った相関関数ピークの位置の決定に使用されるべき相関関数値ポイントの全部のセットに達して、相関関数値ポイントの疎ら度合いがより低いスパースセットにおける1つ又はそれ以上のステージを決定することができる。勿論、2次元相関関数のピーク部分の位置が決定されたときはいつでも、相関関数値ポイントの全部のセットを、671出願に説明された技術を使って現実の相関関数値ピークの位置を決定する際に単一のステージとして使用するようにしてもよい。
【0132】
取り分け、2次元相関関数600のピーク部分620の位置を特定するために使用した相関関数値ポイント606のスパースセットは2次元方向に疎らに分布するので、全相関関数600における相関関数値ポイント602の数に対する、スパースセットに含まれる相関関数値ポイント606の数の比は極端に小さい。したがって、2次元相関関数600中を検索するために必要なシステムリソースを、図5及び図7に示す1次元相関関数における相関関数値ポイント402のスパースセットの相関関数を決定するために必要なシステムリソースの縮減に比べても、著しく縮減することができる。
【0133】
2次元相関関数において、上述の第1及び第3の相関関数値ポイント402a,402cに対応するピーク部分620内のポイント606が、ピーク部分620内の最も遠い相関関数値ポイント606の反対側に位置しないようにしてもよい。これによって、2次元相関関数において、それらの第1及び第3の相関関数値ポイント606を、2次元相関関数における最も遠い相関関数値ポイント606から全方向に展開するオフセット位置の範囲を規定するために使用することができる。同様に、この同じ技術を、1次元オフセット局面における相関関数値ポイント402bの周辺の範囲を決定するために使用することができる。そして、その範囲内の相関関数値ポイント606(又は402)のうち少なくともいくつかは、相関関数ピークのオフセット位置を決定するために使用される。
【0134】
図11は、本発明に係る第1の解決に、相関関数空間における画像相関関数値ポイント位置のスパースセットを使用してピーク又は谷の位置を決定する方法の第1の実施の形態の概要を示すフローチャートである。図11に示すように、処理がステップS100で開始されてステップS200に進み、そこで基準画像が撮影される。そしてステップS300で、変位画像が撮影される。変位画像は基準画像に対して或る未知のオフセット量だけ変位され、基準画像に重ね合わされるようにしてもよい。この後、処理がステップS400へ移る。
【0135】
ステップS400では、基準画像と変位画像とを、複数の疎らに分布するオフセット位置において、すなわち、前に説明したスパースセット構成又は手順のどれかによって相関関数値ポイントのスパースセットに対応するオフセット位置において比較する。例えば、この第1の実施の形態では、ステップS400において、相関関数値ポイントのスパースセットが予め決定されるか、または決定されるべき相関関数値ポイントの所定の順序に一致する。その後、処理がステップS500に進む。
【0136】
ステップS500では、相関関数値ポイントのスパースセットにおける相関関数値ポイントを解析し、相関関数のピーク部分内に位置するスパースセットの1つ又はそれ以上の相関関数値ポイントを特定する。上記に説明したように、ピーク部分内に位置するスパースセットの相関関数値ポイントは、スパースセットの相関関数値ポイントの相関関数値を、平均値、予め決定されて最大値、又は予め決定されて最小値のような、通常バックバックグラウンド部分の範囲の予め決定された特性と比較することによって決定され得る。この最小値又は最大値が使用されるか否かは、相関関数値を得るために使用される数理関数のタイプによって決まる。
【0137】
そしてピーク部分がステップS500でいったん決定されると、ステップS600で、大体決定されたピーク部分内に位置するオフセット位置のうち少なくとも1つの部分において相関関数値ポイントの全セットのような高解像度セットを決定する。すなわち、上述のように、全部分が、ピクセルピッチで離れて存在する多数の隣接するオフセット位置に一致する。しかし、ピーク部分内に存在するオフセット位置の全部を必ずしも決定する必要はないと言える。次にステップS700で、ステップS600で決定された相関関数値ポイントの全セットのうち少なくともいくつかの相関関数値を使用して、基準画像と変位画像との間の実際の変位またはオフセットを決定する。引用した671出願に明示される各種技術のどれかをステップS700で使用するようにしてもよい。その後、処理がステップS800へ進む。
【0138】
ステップS800で、本方法の処理を終了すべきか否かを、又は付加的な変位を決定する必要があるか否かを判別する。付加的な変位を決定する必要があるならば、処理はステップS300に戻り、後続の変位画像を撮影する。一方、そうした必要がなければ、処理はステップS900に進み、本方法の処理を終了する。
【0139】
図1に示すスペックル画像ベースの光学式トランスデューサ100のような位置トランスデューサにおける多くの適用例では、ステップS300で撮影された変位画像がついには、ステップS200で撮影された基準画像のフレームを超えて変位されるようにしてもよい。この場合、米国特許出願第09/860,636号に開示される各種技術をステップS800とステップS300との間に用いて、新たな基準画像を提供するようにしてもよい。なお、予め得られた変位画像を次の基準画像として使用するようにしてもよい。
【0140】
図12は、本発明に係る第1の解決に、相関関数空間における画像相関関数値ポイント位置のスパースセットを使用してピーク又は谷の位置を決定する方法の第2の実施の形態の概要を示すフローチャートである。図12及び図11のステップS100−S300は同じ内容の処理である。しかし、ステップS400及びS500に関しては、図11で説明した実施の形態では、ステップS400で、スパースセットの全相関関数値ポイントにおける相関関数値を決定する。そしてステップS500で、決定された全スパース相関関数値を解析する。これに対して、図12に示すステップS400及びS500では、1つのスパース相関関数値の相関関数値をステップS400で決定することができ、そしてステップS500で、次のスパース相関関数値ポイントの相関関数値がステップS400で決定される前に、その決定された現在の相関関数値を解析できるように変更される。この場合、図12に示すように、ステップS500の後でステップS600の前にステップS550を追加し、そこで、現在の相関関数値ポイントを考慮して、ピーク部分の位置が十分に特定されたか否かを判別する。ピーク部分の位置が十分に特定されていないならば、処理はステップS400に戻り、スパースセットの次の相関関数値ポイントの解析が行われる。ピーク部分の位置が十分に特定されたならば、処理はステップS600及びS700に進み、図11のステップS600及びS700と同じように、ステップS600で、相関関数ピークオフセット位置を決めるために決定されるべき相関関数値ポイントの高解像度セットを決定し、ステップS700で、決定された高解像度セットを解析する。
【0141】
さらに、ステップS550の各種の変形例として、ピーク部分の第1の相関関数値ポイントが見つかるまで、またはピーク部分の所定数の相関関数値ポイントが見つかるまで、またはピーク部分のピーク幅内に位置するスパースセットの相関関数値ポイントから、ピーク部分内に位置するような、決定されるべき第1の相関関数値ポイントの両側までが決定されるまで、またはピーク部分420の幅が測定されるまで、処理をステップS400に戻すようにしてもよい。これにより、ステップS550の各種の変形例では、ピーク部分内に潜在的に位置することができるスパースセットの複数の相関関数値ポイントを、処理がステップS600に進む前に決定するようにする。これは、ステップS600で決定され解析されたポイントの高解像度セットに含まれるべき特定な相関関数値ポイントを決定するとき有利である。
【0142】
図11及び図12を参照して上記に説明したフローチャートをまた、図5−8を参照して上記に説明した各種の変形例のいずれかと合体させるように改造して、ステップS400及びS500の各々で決定され解析されるべき相関関数値ポイントの別のスパースセットで、ステップS400及びS500の多数の実例を考慮するようにしてもよく、及び/又は図8を参照して上記に説明したように、ステップs400で相関関数値を決定するべく実行される比較を改造するようにしてもよい。また、当業者ならば容易に理解できるように、図11及び図12に例示した方法及び上記したその付加的な変形例を、1次元オフセット及び2次元オフセットの両方で区別なく利用できるようにしてもよい。そうした変形の組み合わせが多数存在し得るが、ここでは、そうした潜在的な各組み合わせに対応する特定なフローチャートを記載しない。しかし、上記に明示した図5−10に関わる説明を考慮すれば、当業者は、そうした変形例を実行する図11及び図12に説明した本発明に係る方法の実施の形態のそのような変形において実行されるべき特定なステップを容易に理解するものと思われる。
【0143】
図13及び図14は、「不鮮明化された(smeared)」高空間周波数画像の2つの実施の形態を示す。従来、画像相関技術では、図15に示す画像のような鮮明な画像に比べ、この不鮮明化(以下「スミア」という)が画像を歪ませるので、そのようなスミア画像は、非常に望ましくないものと考えられていた。しかし、本発明に使用されるように、スミアを誘引する速度及び露出時間によって得られた産出物が、撮影された画像のピクセルサイズに比べ無視できないものであるとき、画像のスミアが発生する。一般に、図13及び図14に示すもののように、このスミアが認識できるほどであり、目に見えるほどであり、及び/又は測定できるほどであるとき、無視できないものとなる。スミアは従来、相関関数ピークの形状及び位置を著しく歪ませ、そのため、基準画像と変位画像との間の実際の変位の決定を妨げると信じられていた。しかし、画像撮影装置のピクセルサイズのオーダ上にある画像特徴に関して、画像化された物体が画像撮影装置に対して著しい速度で移動している間に撮影された画像はどれも、或る程度のスミアを持つ。
【0144】
一般に、静止画像に比べた画像特徴のスミア量Sは下記式(4)で表される。
【0145】
【数4】
Figure 0004303454
【0146】
ここで、vは2次元オフセットの速度ベクトルであり(vは、1次元オフセットのスカラ速度)、tsはシャッタ時間(または光源のストロボ時間)である。
【0147】
なお、或る画像におけるスミア量Sを、その画像における自己相関関数のピーク部分から決定することができる。なおまた、スミア量Sを決定するために、単一の画像だけを要求するようにしてもよい。1次元変位における所与のピクセル変位(p)に対する自己相関関数R(p)は下記式(5)で表される。
【0148】
【数5】
Figure 0004303454
【0149】
同様に、2次元変位における所与のピクセル変位(p,q)に対する自己相関関数R(p,q)は下記式(6)で表される。
【0150】
【数6】
Figure 0004303454
【0151】
実際上は、与えられた画像の自己相関ピークが、1次元オフセットでは、p=0変位の中心に置かれ、また、2次元オフセットでは、p=q=0変位の中心に置かれるので、潜在的な全部のオフセット値に対してR(p)又はR(p,q)を決める必要はない。むしろ、R(p)又はR(p,q)を、(0)又は(0,0)のオフセット位置付近の中心に置かれた、相関関数の1次元又は2次元ピーク部分内に位置するそれらのオフセットに対してのみ、またはそれらのオフセットのスパースセットに対してのみ、決定することができる。また、R(p)又はR(p,q)を決めるために全部の画像を使用する必要はないといえる。むしろ、全画像のサブエリアをR(p)又はR(p,q)を決めるために使用するようにしてもよい。図6及び図7を参照して上記に説明したように、全画像よりも少ない画像を使用することは、演算時間を実質上減少させることになる。
図16は、非スミア画像の2次元相関関数600のピーク部分620における等高線図、及びスミア画像の2次元相関関数600′のピーク部分620′における等高線図を示す。勿論、データポイントが、非スミア画像及びスミア画像を撮影するために使用された画像アレイのピクセル単位だけ分離されているので、これらの相関関数が現実には、連続でないと言える。
【0152】
相関関数のピーク部分内に位置する相関関数値ポイントの全部を算出することなく、及びアレイピクセルの全部を使うことなく、2次元変換オフセットにおけるスミアベクトル(または1次元オフセットにおけるスカラスミア量)を決定するための本発明に係る高速技術の一実施の形態では、列方向(p)に沿って相関関数を決定するために1つの行Nxを使用し、行方向(q)に沿って相関関数を決定するために1つの列Myを使用する。すなわち、行Nxは、列方向(p)に沿った各種のピクセル変位において自身に相関させ、列Myは、列方向行方向(q)に沿った変位において自身に相関させる。相関関数値ポイントのこのスパースセットの決定の結果、図17に相関関数値ポイント608によって示すように、p及びq方向に沿ったR(p,q)が効果的に算出される。しかし、図17の如何なる所与の相関関数値ポイント608における信号対雑音比をも改善するために、実際上、複数行N及び/又は複数列Mを使用することが望ましいかもしれない。一般に、1から5までのそうした行N又は列Mが、ピクセルサイズのオーダ上の画像特徴に対して合理的に使用され得る。
【0153】
p及びq方向に沿った相関関数値ポイント608が決定されたときはいつでも、ピーク部分620′の幅624p′及び624q′を、これらの相関関数値ポイント608の値に基づいて決定することができる。その後、どの方向のスミアもを、p及びq方向に沿ったピーク部分620′の幅624p′及び624q′のベクトル組み合わせに基づいてそれぞれ決定するようにしてもよい。
【0154】
ピーク部分620′の幅624p′及び624q′の最大長ベクトル組み合わせの方向が、スミア画像が撮影されたときに発生した動きの方向、すなわちスミアベクトルvの方向を表すようにしてもよい。したがって、直交方向、またはピーク部分620′の幅624p′及び624q′の最小長ベクトル組み合わせの方向は、相対的でない動きの方向である。そこで、これらの2つの直交ベクトル長の間の差は、実際のスミア量に対応する。
【0155】
上記の解析はまた、2次元アレイによって画像化された1次元オフセットにも適用される。しかし、オフセットが常時、規定されたアレイ軸に沿っている適用例では、最小長組み合わせベクトルが常時1つのアレイ方向に沿っているようにしてもよい。そして、最小長組み合わせベクトルはしばしば既知の量となる。かくして、例えば、p方向に沿って画像を移動するように制限された動きにおいて、p方向に沿ったオフセットに対する相関関数値ポイントのみが決定される。そのとき、スミア量は、p方向に沿った相関関数のピーク部分420の、動きに依存する幅424と、q方向に沿った既知の最小ベクトル長とに基づいて決定される。
【0156】
スミアベクトルvがいったん決定されると、距離対スミア度の関数を利用できるものと仮定すれば、スミア基準画像300に対する変位画像310の大まかな相対的位置を予測することができる。この距離対スミア度の関数を、スミア関係S=v・tsと、スミア基準画像300の獲得時と変位画像310の獲得時との間の既知の経過時間とに基づいて測定又は予測するようにしてもよい。
【0157】
この技術において、解析されるスミア画像が撮影されている間及びその後における加速が大き過ぎないと仮定するようにしてもよい。すなわち、この技術は、スミア基準画像の獲得時と変位画像の獲得時との間に大きな加速が発生する場合、その価値を下げることになる。しかし、スミア基準画像または変位画像のうち1つだけに全く同一の解析を施すよりも、スミア基準画像及び変位画像の両方に全く同一の解析を施し、その後、基準画像及び変位画像からのスミア結果を比較することによって、大きな加速におけるその決定が可能となるか、少なくとも部分的な調整が可能となる。
【0158】
しかし、上記の説明によって決定された1又は2次元のオフセットにおけるスミアベクトルvがライン方向を示している限り、そのスミアベクトルは実際上、動きの発生したラインを表示しても、ラインに沿ってどちらの方向にその動きが発生したかを示していないと言える。したがって、(1次元オフセットにおける)スミアの大きさ、または(2次元オフセットにおける)スミアの大きさ及びライン方向を使用して、これによって、1次元又は2次元の相関関数400及び600のピーク部分420又は620の2つの候補的又は潜在的位置を概ねそれぞれ決定することができる。大体の候補的又は潜在的位置を知って相関関数ピークを検索することによって、相関関数ピークの大体の候補的又は潜在的位置から離れた相関関数値ポイントの相関関数値を決定してしまうことを回避することが可能となり、したがって、少ない処理回数でピークを発見することが可能となる。
【0159】
代わりに、直前の変位決定で決定された変位を、スミア方向の極性を選択するために使用するようにしてもよく、これによって、ピーク部分420又は620の単一の大体の位置だけを検索することが必要となる。すなわち、前の変位決定に続く加速が大き過ぎないと仮定したとき、その変位の方向を、2つの候補的又は潜在的位置のうち1つを除去するために使用するようにしてもよい。
【0160】
したがって、ピーク部分420又は620の大体の位置がいったん、スミア量及び/又は方向を用いて特定されると、大まかに決定された相関関数ピークオフセット位置の周辺に存在する相関関数値ポイント402又は606を正に含む或る限られた範囲の相関関数値ポイント402又は606を決定し、解析するようにしてもよい。各種の適用例では、上述したスミア手順が、上記のスパース検索手順を更に適用する際に余り効用がないような十分な精度によって、大まかに決定した相関関数ピークオフセット位置を分離するようにしてもよい。そのような場合、大まかに決定された相関関数ピークの周辺の限られた範囲に存在する全相関関数値ポイント402または606が、671出願におけると同じように解析される。671出願に開示される各種の技術によって実際のオフセット位置を決定する際に使用されそうな相関関数値ポイントだけが決定されるので、オフセット位置を決定するために必要なシステムリソースは、相関関数400又は600の全相関スペースを検索しなければならない場合に比べ、著しく減少される。
【0161】
しかし、他の適用例では、上記に明示されたスミア手続が、大まかに決定された相関関数ピークオフセット位置をもっと粗く分離するようにしてもよく、また上記限られた範囲が著しく増加するようにしてもよい。また、スミアが識別できない場合、その限られた範囲は最大値に設定されねばならない。その場合、上記のスミア技術を、各種実施の形態のいずれか及び/又は上記の相関関数値ポイントのスパースセットの技術の変形例と組み合わせて、オフセット位置を決定するために必要なシステムリソース量を更にずっと減少させるようにしてもよい。すなわち上記に説明したように、スミアの大きさ又はスミアベクトルは、1次元又は2次元相関関数400及び600の相関関数ピークの位置及びピーク部分420又は620を大まかにそれぞれ決定するだけである。そのため、スミアの大きさ又はスミアベクトルによってそれぞれ提供されたピーク部分420又は620の大体の位置についての情報を使用して、相関関数値ポイント402又は606のスパースセットを動的に決定することができ、これによって、ピーク部分420または620の大体の位置及び相関ピーク422又は622が、より高い精密度及び/又は解像度でそれぞれ決定される。
【0162】
その後、上記に説明したように、最も離れた相関関数値ポイント402b又は606bの周辺のピーク部分420又は620内に位置する、相関関数値402又は606のスパースセット及び周辺の相関関数値ポイント402または606における最も離れた相関関数値ポイント402b又は606bを決定する。次いで、671出願に説明される技術に対して有用な、相関関数値ポイントの全セットを決定するための上記に説明した各種の技術のうちどれを使用するようにしてもよい。この場合、スミア技術及びスパースセット技術を組み合わせたこの3ステージからなる技術を使用することによって、必要となるシステムリソースはずっと少ないものとなる。
【0163】
図18は、図1に示す信号生成処理回路200の一実施の形態を詳しく示すブロック図である。図18に示すように、信号生成処理回路200は、コントローラ210、光源ドライバ220、光検出インタフェース225、メモリ230、比較回路240、比較結果アキュムレータ245、補間回路260、位置アキュムレータ270、表示ドライバ201、オプション接続の入力インタフェース204、クロック208、オフセット位置セレクタ275、及び相関関数解析器280を含む。
【0164】
コントローラ210は、信号ライン211によって光源ドライバ220に、信号ライン212によって光検出インタフェース225に、そして信号ライン213によってメモリ230に接続される。同様に、コントローラ210は信号ライン214−218によって、比較回路240、比較結果アキュムレータ245、補間回路260、位置アキュムレータ270、及びオフセット位置セレクタ275にそれぞれ接続される。最後に、コントローラ210は、コントロールライン202によって表示ドライバ201に接続され、備えられていれば信号ライン205によって入力インタフェース204に接続される。メモリ230は、基準画像部232、現在画像部234、相関部236、相関オフセット位置セット部238、及び第2ステージ相関部239を含む。
【0165】
こうした構成の信号生成処理回路200の動作を説明すると、コントローラ210が、制御信号を信号ライン211を介して光源ドライバ220に出力する。これに応答して、光源ドライバ220が、駆動信号を光源130に信号ライン132を介して出力する。引き続いて、コントローラ210が制御信号を光検出インタフェース225及びメモリ230へ信号ライン212,213を介して出力し、これによって、画像エレメント162の各々に対応する光検出器160から信号ライン164を介して受信された信号部分が現在画像部234に格納される。なお、個々の画像エレメント162からの画像値は、アレイ166内の個々の画像エレメント162の位置に対応する現在画像部234内の2次元アレイに格納される。
【0166】
画像が基準画像部232にいったん格納されると、コントローラ210は、光源130を駆動するための制御信号を、信号ライン311を介して光源ドライバ220へ出力する前に、適当な一定の時間又は制御された時間だけ待機する。そのとき、光検出インタフェース225及びメモリ230が信号ライン212,213からの信号によって制御されて、得られた画像が現在画像部234に格納される。
【0167】
次に、コントローラ210の制御の下で、オフセット位置セレクタ275が相関オフセット位置セット部238にアクセスする。相関オフセット位置セット部238は、1次元又は2次元相関関数400又は600のピーク位置420又は620を大まかに決定するために、第1のステージの間に使用されるべき相関関数値ポイントのスパースセットを規定するデータを格納している。相関オフセット位置セット部238に格納された相関関数値ポイント402又は606のスパースセットは、上記に説明したように、予め決定されるようにしておく。これに代わって、相関関数値ポイント402又は606のスパースセットを動的に決定するようにしたり、上記に説明したように、順番に決定されるべき相関関数値ポイントの順番リストを動的に決定したりするようにしてもよい。
【0168】
相関関数値ポイント402又は606のスパースセットが決定される方法の如何に拘らず、オフセット位置セレクタ275は、コントローラ210の制御下で、相関オフセット位置セット部238に格納された相関関数値ポイントのスパースセットから第1の相関関数値ポイントを選択する。そしてオフセット位置セレクタ275は、現在画像部234に格納された変位画像を基準画像部232に格納された基準画像と比較したとき、比較回路240によって使用されるべき(1次元相関関数400における)p次元オフセット又は(2次元相関関数600における)p及びq次元オフセットを示す信号を、比較回路240に信号ライン277を介して出力する。
【0169】
その後、コントローラ210は、比較回路240に信号ライン215を介して信号を出力する。これに応答して、比較回路240は、信号ライン242を介して基準画像部232から特定なピクセルの画像値を入力し、そして、オフセット位置セレクタ275から受け取ったオフセット値で、相関関数値ポイント402又は606のスパースセットのうち現在のものにおけるオフセット値に基づいて、信号ライン242を介して現在画像部234から対応するピクセルの画像値を入力する。このとき、比較回路240は、比較結果を得るために相関アルゴリズムを適用する。基準画像部232に格納された基準画像と現在画像部234に格納された現在画像とを、現在オフセットに基づきピクセル単位ベースで比較するために、比較回路240は、周知の又は今後開発される如何なる適切な相関技術を使用するようにしてもよい。比較回路240は、現在相関オフセットにおける比較結果を比較結果アキュムレータ245に信号ライン248を介して出力する。
【0170】
比較回路240がいったん、画像エレメント162のうち少なくともいくつかにおける画像値を基準画像部232から抜き取り、それらを現在画像部234に格納された対応する画像値と比較し、相関技術を適用して比較結果を比較結果アキュムレータ245に出力すると、比較結果アキュムレータ245に格納された値は、オフセット位置セレクタ275から受け取った現在値に対応する相関値であって、相関関数値ポイント402又は606のスパースセットのうち現在のものにおける相関値を、所定の単位で規定する。そして、コントローラ210は、信号ライン214を介して比較結果アキュムレータ245に、及び信号ライン213を介してメモリ230に信号を出力する。その結果、比較結果アキュムレータ245に格納された相関アルゴリズム結果が、オフセット位置セレクタ275から受け取った現在値であって、相関関数値ポイント402又は606のスパースセットのうち現在のものの現在値に対応する位置でメモリ230の相関部236に出力され格納される。コントローラ210はその後、信号ライン214に信号を出力して、相関部236に格納された相関結果をクリアする。
【0171】
コントローラ210はその後、信号ライン214に信号を出力して比較結果アキュムレータ245をクリアする。コントローラ210の制御の下で、相関オフセット位置セット部238に格納された相関関数値ポイントのスパースセットにおける全相関関数値ポイントに対する比較が全て比較回路240によって実行され、その結果が、比較結果アキュムレータ245によって累積され、相関部236に格納されたときには、コントローラ210は、相関関数解析器280に信号ライン219を介して制御信号を出力する。
【0172】
相関関数解析器280は、コントローラ210の制御の下で、相関部236に格納された相関関数値を解析して、相関関数400又は600のピーク部分420又は620内にそれぞれ位置する相関関数値ポイント402又は602のスパースセットにおける相関関数値ポイント402又は606を特定する。そして相関関数解析器280は、コントローラ210の制御の下で、ピーク部分420又は620内にそれぞれ位置する多数の相関関数値ポイント402または606で、第2ステージ相関部239に格納されるべき最も遠い相関関数値ポイント402b又は606bを囲むピーク部分420又は620のうち少なくとも一部分に位置する多数の相関関数値ポイント402または606を出力する。そしてコントローラ210が信号ライン214に信号を出力して、相関部236に格納された相関結果をクリアする。
【0173】
次には、コントローラ210の制御の下で、比較回路240が、第2ステージ相関部239に格納された相関関数値ポイント402または606の各々における相関数値を決定する。コントローラ210の制御の下で、第2ステージ相関部239に格納された全相関関数値ポイント402または606に対する比較が全て比較回路240によって実行され、その結果が、比較結果アキュムレータ245によって累積され、相関部236に格納されたとき、コントローラ210が補間回路260に信号ライン216を介して制御信号を出力する。
【0174】
これに応答して、補間回路260が相関部236に格納された相関結果を、信号ライン242を介して入力し、そして相関関数のピークまたは谷と一致する相関値を特定し、相関関数のピーク/谷の周辺における該特定された相関関数値ポイント間で補間を行って、サブピクセル解像度を備えたピークオフセット値又は画像変位値を決定する。そして補間回路260は、コントローラ210から信号ライン216を介して送られた信号による制御により、該決定されたサブピクセル変位推定値を、信号ライン262を介して位置アキュムレータ270へ出力する。位置アキュムレータ270は、コントローラ210から信号ライン217を介して送られた信号による制御により、該変位推定値を基準画像部232に格納された現在基準画像における変位値に加算する。位置アキュムレータ270はその後、更新された位置変位値をコントローラ210へ信号ライン272を介して出力する。
【0175】
これに応答して、コントローラ210は更新された位置変位値を、備えられていれば表示ドライバ201に、信号ライン202を介して出力するようにしてもよい。表示ドライバ201は駆動信号を、信号ライン203を介して表示装置107へ出力して、現在の変位値を表示させる。
【0176】
もし備えられていれば、1つ又はそれ以上の信号ライン205によって、オペレータ又は協力システムとコントローラ210との間のインタフェースが行われる。もし備えられていれば、入力インタフェース204が、入力信号又はコマンドを一時的に記憶し、または変形して、コントローラ210に適当な信号を送信するようにしてもよい。
【0177】
コントローラ210は、相関オフセット位置セット部238に格納された複数のスパースセットから相関関数値ポイントの特定なスパースセットを選択するようにオフセット位置セレクタ275を制御して、2ステージよりもむしろ、マルチステージの解析技術を実行可能にするようにしてもよい。また、コントローラ210は、図6及び図7を参照して上述されたように、基準画像部232及び現在画像部234に格納された基準画像及び変位画像のピクセルのサブセットのみを比較するように比較回路240を制御してもよい。
【0178】
図19は、図1に示す信号生成処理回路200の第2の実施の形態を詳細に示すブロック図である。図19に示すように、信号生成処理回路200は、図18に示す信号生成処理回路200の第1の実施の形態と略同じであるが、この第2の実施の形態では、オフセット位置セレクタ275が除かれ、スミア量解析器290が加えられている。その動作においては、図18に示す信号生成処理回路の第1の実施の形態とは異なり、コントローラ210が光源ドライバ220及び/又は光検出器160を操作してスミア画像を生成させ、この画像が基準画像部232に格納される。
【0179】
そして、現在画像部234に格納されるべき変位画像を得るために適当な一定の又は制御された時間だけ待機するが、その時間の経過前に、コントローラ210が比較回路240に信号ライン215を介して信号を出力し、基準画像部232に格納されたスミア画像の自己相関関数を決定するために必要なデータを生成する。通常、比較回路240及び比較結果アキュムレータ245がコントローラ210によって上記に説明したように制御され、2次元オフセットにおいては図17に示す相関関数値ポイント608の相関関数値が、1次元オフセットにおいては相関関数オフセットポイント402の対応のセットの相関関数値が生成され、累積され、相関部236に格納される。
【0180】
そして、コントローラ210の制御の下、スミア量解析器290が、相関部236に格納された相関関数値ポイントを解析し、ピーク部分420の1次元幅424又は2次元ピーク部分620の2次元幅624p及び624qを決定する。スミア量解析器290はその後、ピーク部分420又は620の該決定された1次元幅424又は2次元幅624p及び624qからスミア量をそれぞれ決定する。そしてスミア量解析器290は、基準画像部232に格納されたスミア画像と、撮影され現在画像部234に格納された変位画像との比較から決定されるべき相関関数のピーク部分420又は620の1つ又は2つの大体の位置を決定する。
【0181】
こうしたスミア量解析器290によって決定されたピーク部分420又は620の大体の位置に基づき、相関オフセット位置セット部238及び/又は第2ステージ相関部239に格納された相関関数値ポイントのセットが、スミア量解析器290によって決定される。その後、コントローラ210の制御の下、この決定された相関関数値ポイントのセットが、相関オフセット位置セット部238及び/又は第2ステージ相関部239のうち一方又は両方に格納される。
【0182】
そして、適切な一定の又は制御された時間の経過後、コントローラ210は、変位画像を得て、それを現在画像部234に格納する。上記に説明したように、コントローラ210は、第2ステージ相関部239に格納された相関関数値ポイントのセットに基づき、比較回路240、比較結果アキュムレータ245、及び補間回路260を制御して、実際のオフセット位置を決定する。
【0183】
勿論、図18及び図19に示し、上記に説明したこれらの信号生成処理回路200の第1及び第2の実施の形態を組み合わせるようにしてもよい。この場合、スミア量解析器290がピーク部分420又は620の1つ又は2つの可能な大体の位置を決定した後、比較回路240によって使用され、第2ステージ相関部239に格納されるべき相関関数値ポイントの全セットを格納するよりもむしろ、スミア量解析器290が、ピーク部分420又は620の可能な大体の位置に基づいて、相関関数値ポイント402又は606の少なくとも1つのスパースセットを動的に決定し、コントローラ210の制御の下で相関オフセット位置セット部238に格納するようにする。変位画像が撮影され現在画像部234に格納された後、信号生成処理回路200の第1の実施の形態に関連して上記に説明したように、コントローラ210は、図18に示す信号生成処理回路200の第1の実施の形態に関連して上記に説明したように、相関関数値ポイント402又は606の少なくとも1つのスパースセットに基づいて、比較回路240を操作する。
【0184】
信号生成処理回路200は各種の実施の形態において、プログラムされたマイクロプロセッサ又はマイクロコントローラ及び周辺集積回路エレメントを使用することによって実現されている。なおまた、信号生成処理回路200は、プログラムされた汎用目的コンピュータ、特定目的コンピュータ、ASIC若しくは他の集積回路、ディジタル信号プロセッサ、ディスクリート部品回路のような配線された電子若しくは論理回路、PLD,PLA,FPGA若しくはPALのようなプログラム可能な論理装置、またはこれらと類似するものを使用することによって実現するようにしてもよい。通常、上記の方法の1つ又はそれ以上を実現することのできる有限状態機械を備えた如何なる装置も、信号生成処理回路200を実現するために使用することができる。
【0185】
図18及び図19において、信号生成処理回路200のメモリ230を、変更可能な揮発性若しくは不揮発性メモリ、又は変更不可能な若しくは固定のメモリの適当な組み合わせを使って構成するようにしてもよい。揮発性、不揮発性に拘らず、変更可能なメモリを、スタティック又はダイナミックRAM、フロッピー(登録商標)ディスク及びディスクドライブ、書き込み可能又は再書き込み可能な光学式ディスク及びディスクドライブ、ハードドライブ、フラッシュメモリ、メモリスティック、またはこれらに類するもののうち1つ又はそれ以上を使用して構成してもよい。同様に、変更不可能な若しくは固定のメモリを、ROM,PROM,EPROM,EEPROM,CD−ROM又はDVD−ROMディスクのような光学式ROMディスク及び関連ディスクドライブ、又はそれらに類するもののうち1つ又はそれ以上を使用して構成してもよい。
【0186】
かくして、信号生成処理回路200のコントローラ210及び各種の他の回路220,225および240−290の各々を、適切にプログラムされた汎用コンピュータ、マクロプロセッサ又はマイクロプロセッサの一部分として構成するようにしてもよい。また代わって、図18及び図19に示すコントローラ210及び他の回路220,225および240−290の各々を、ASIC内の物理的に別個のハードウエア回路として、またはFPGA,PDL,PLA若しくはPALを使用して、又はディスクリート論理エレメント若しくはディスクリート回路エレメントを使用して構成するようにしてもよい。信号生成処理回路200の回路220,225および240−290の各々が形成する特定な形態は、設計上の選択の範囲にあり、当業者には明らかであり、予測できるものである。
【0187】
以上、本発明を上記に概説された実施の形態と関連して説明したが、多くの代替案、変更及び変形が、当業者にとり明白であることは明らかである。したがって、上記に明らかにした本発明の実施の形態は例示的なものであって、本発明はこれに限定されるものではない。各種の変更を、本発明の精神及び範囲を逸脱することなく行うことができる。
【0188】
【発明の効果】
以上詳述したように本発明によれば、相関ピーク又は谷の位置を正確に決定することのできるシステム及び方法が提供される。
【0189】
また本発明によれば、従来の方法及び技術よりも少ないシステムリソースを使うだけにも拘らず、相関ピーク又は谷の位置を決定することのできるシステム及び方法が提供される。
【0190】
また本発明によれば、疎らに相関関数を決定するが、相関ピーク又は谷の位置を正確に決定することのできるシステム及び方法が提供される。
【0191】
また本発明によれば、決定された相関値のグリッドを使って、2次元相関関数における相関ピーク又は谷の位置を決定することのできるシステム及び方法が提供される。
【0192】
また本発明によれば、1対の高空間周波数画像における相関ピーク又は谷の位置を正確に決定することのできるシステム及び方法が提供される。
【0193】
また本発明によれば、相関ピーク又は谷から離れた領域において実質的に平ら又は規則的である相関関数特性を有する画像における相関ピーク又は谷の位置を正確に決定することのできるシステム及び方法が提供される。
【0194】
また本発明によれば、相関付けられるべき画像のサブセットにおける相関関数を疎らに決定するにも拘らず、相関ピーク又は谷の位置を正確に決定することのできるシステム及び方法が提供される。
【0195】
また本発明によれば、第1及び第2の画像の間で相関処理を実行することなく、相関ピーク又は谷が存在するはずの相関関数の一部分を特定することのできるシステム及び方法が提供される。
【0196】
また本発明によれば、画像相関システムによって撮影された単一画像から動きの大きさ及び/又は方向を推定することのできるシステム及び方法が提供される。
【0197】
また本発明によれば、撮影された第2の画像のみの解析から、推定された変位距離すなわちオフセット及び/又は方向の精度を高めることのできるシステム及び方法が提供される。
【0198】
また本発明によれば、相関ピークが存在するらしい相関関数の一部分を特定するために、決定された及び/又は高精度にされた変位距離及び/又は方向の値を使用することのできるシステム及び方法が提供される。
【0199】
また本発明によれば、第1及び第2の画像の自己相関に基づき、画像化されるべき表面と画像化システムとの間の相対的な動きの大きさ及び/又は方向を決定することのできるシステム及び方法が提供される。
【0200】
また本発明によれば、自己相関ピークの少なくとも1つの特性に基づき、相対的な動きの大きさ及び/又は方向を決定することのできるシステム及び方法が提供される。
【0201】
また本発明によれば、スペックル画像を使って特に表面の変位測定に適切であるシステム及び方法が提供される。
【図面の簡単な説明】
【図1】スペックル画像相関光学式位置トランスデューサを示すブロック図である。
【図2】従来の比較技術における、第1の画像と現在の第2の画像との関係、及び相関値を生成するために用いられる第1及び第2の画像の部分を示す図である。
【図3】画像が連続するピクセル変位でオフセットされたとき、従来の比較技術を使うことによって、また従来の乗算相関関数を使うことによって、第1及び第2の画像を比較した結果を示すグラフである。
【図4】本発明に係る、画像相関関数値ポイントのスパースセットを比較する技術の第1の実施の形態における、第1の画像と第2の画像との関係、及び相関値を生成するために用いられる第1及び第2の画像の部分を示す図である。
【図5】図4に示す画像相関関数値ポイントのスパースセットを比較する技術の第1の実施の形態を使って、また従来の乗算相関関数を使って、第1及び第2の画像を比較した結果を示すグラフである。
【図6】本発明に係る、画像相関関数値ポイントのスパースセットを比較する技術の第2の実施の形態における第1の画像と第2の画像との関係、及び相関値を生成するために用いられる第1及び第2の画像の部分を示す図である。
【図7】図6に示す画像相関関数値ポイントのスパースセットを比較する技術の第2の実施の形態を使って、また従来の乗算相関関数を使って、第1及び第2の画像を比較した結果を示すグラフである。
【図8】相関関数で用いられる異なる数のピクセルにおける相関関数の関連した形状を示すグラフである。
【図9】画像が、2次元における連続するピクセル変位でオフセットされたとき、従来の比較技術を使って、また従来の差分相関関数(difference correlation function)を使って、第1及び第2の画像を比較した結果を示すグラフである。
【図10】画像が2次元における連続するピクセル変位でオフセットされたとき、本発明に係る、画像相関関数値ポイントのスパースセットを比較する技術の第1の実施の形態を使って、また従来の差分相関関数を使って、第1及び第2の画像を比較した結果を示すグラフである。
【図11】本発明に係る第1の解決に、相関関数空間における画像相関関数値ポイント位置のスパースセットを使用してピーク又は谷の位置を決定する方法の第1の実施の形態の概要を示すフローチャートである。
【図12】本発明に係る第1の解決に、相関関数空間における画像相関関数値ポイント位置のスパースセットを使用してピーク又は谷の位置を決定する方法の第2の実施の形態の概要を示すフローチャートである。
【図13】画像化されるべき表面が単一次元に沿って画像撮影システムに対して移動するスミア高空間周波数画像の第1の実施の形態を示す図である。
【図14】画像化されるべき表面が2次元において画像撮影システムに対して移動するスミア高空間周波数画像の第2の実施の形態を示す図である。
【図15】非スミア高空間周波数画像の一実施の形態を示す図である。
【図16】非スミア画像及びスミア画像における2次元自己相関関数の等高線図である。
【図17】2次元自己相関関数におけるスミア量を決定するために用いられる相関関数値ポイントを示す図である。
【図18】本発明に係る、画像の提供及び画像変位の決定に適した画像ベースの光学式位置トランスデューサにおける信号生成処理回路の第1の実施の形態を概略示すブロック図である。
【図19】本発明に係る、画像の提供及び画像変位の決定に適した画像ベースの光学式位置トランスデューサにおける信号生成処理回路の第2の実施の形態を概略示すブロック図である。
【符号の説明】
100 相関画像ベース光学式位置トランスデューサ
104 光学拡散粗面
110 測定軸
126 読取ヘッド
130 光源
132 信号ライン
134 光ビーム
136 光
140 レンズ
142 光
144 光軸
150 ピンホール開口板
152 ピンホール開口
154 光
160 光検出器
162 画像素子
164 信号ライン
166 アレイ
200 信号生成処理回路
300 基準画像
302 ピクセル
304 単一の次元
310 変位画像
312 ピクセル
320 複数の行
330 複数の列
400 相関関数
402 複数の相関関数値ポイント
404 距離
410 通常バックグラウンド部分
412 範囲
414 最大バックグラウンド値
416 最小バックグラウンド値
420 ピーク部分
424 幅[0001]
BACKGROUND OF THE INVENTION
The present invention is based on image correlation Phase of How to determine the function peak position To the law Related.
[0002]
[Prior art]
In various known devices, the image acquired by the sensor array and the correlation between the images acquired by the sensor array are used to determine deformation and / or displacement. For example, in one type of such an apparatus, a speckle image generated by illuminating an optically rough surface (hereinafter referred to as an “optical diffusion rough surface”) with a light source may be acquired. It is a premise. In general, this light source is a coherent light source such as a laser-generated light source. Such laser-generated light sources include lasers, semiconductor lasers, and the like. After the rough optical diffusion surface is illuminated by the light source, the light scattered from the rough optical diffusion surface produces an image on the optical sensor. The optical sensor may be a charge coupled device (CCD), a semiconductor image sensor array such as a CMOS image sensor array, or the like.
[0003]
Prior to displacing or deforming the optically diffused rough surface, a first initial speckle image is captured and stored. Next, after the optical diffusion rough surface is displaced or deformed, a second or subsequent speckle image is photographed and stored. Conventionally, the first and second speckle images are generally compared on a pixel basis. In general, this comparison is performed multiple times. In each comparison, the difference between the first speckle image and the second speckle image is determined or spatially transformed. During each comparison, the offset amount or spatial translation value is increased by a known amount, such as one image element or pixel, or the number of image elements or pixels represented by an integer.
[0004]
In each comparison, the image value of a particular pixel in the reference image is multiplied by the image value of the corresponding second image pixel, subtracted from the image value, or other functions using the image value. An operation is performed at. The corresponding second image pixel is determined based on the offset amount. The value obtained from each process in pixel units is obtained from the process performed on each other pixel of the image to determine a correlation value according to the comparison result of the first and second images. It is accumulated with the value. The correlation value is basically plotted as a chart with respect to the offset amount or the spatial transformation position for each comparison in order to determine the correlation function value point. The offset with the maximum correlation between the reference image and the first image will produce a peak or valley in the chart of correlation function value points, depending on how the pixel-by-pixel comparison was made. The offset amount corresponding to the peak or the valley represents the displacement amount or the deformation amount between the first speckle image and the second speckle image.
[0005]
US patent application Ser. No. 09 / 584,264, fully incorporated herein by reference, discloses a variety of different embodiments of speckle image-based optical transducers. As disclosed in this 264 application, such an image-based correlation system can move the imaged surface in one or two dimensions relative to the imaging system. Furthermore, the imaged surface does not have to be flat, but may be curved or cylindrical. A system having a two-dimensional relative motion between the imaged surface and the imaging system has a substantially planar imaged surface in one dimension and, for example, an imaging system in two dimensions Can have a virtually non-planar imaged surface, such as a cylinder whose axis of rotation is the axis of rotation, while the cylindrical surface is transformed along the axis while passing through the imaging system.
[0006]
US patent application Ser. No. 09 / 731,671, fully incorporated herein by reference, discloses a system and method for high precision displacement determination in correlation-based position transducers. In this 671 application, a system for evaluating sub-pixel displacement of an image in a correlation-based position transducer and the like is presented. In this system, when the conventional subpixel estimation method is applied to a large number of correlation function value points, in particular, the systematic displacement estimation error that exists when the correlation function value points are arranged asymmetrically is removed.
[0007]
However, in the conventional image correlation system described above, the calculation load required to determine the correlation function value over the entire image for each offset position is often extremely large. Therefore, "Hierarchical Distributed Template Matching" by M. Hirooka et al. Described in the SPIE meeting "Machine Vision applications and Industrial Inspection V" held in San Jose, California on February 10-11, 1997, and 1977 According to “Coarse-Fine Template Matching” by A. Rosenfeld et al., Described on pages 104-107 of “IEEE Transactions on Systems, Man and Cybernetics” published February 2008, the resolution of images to be correlated Various techniques are provided in which the calculation load is reduced by dropping. In both of these papers, the image value of a large number of pixels is averaged to reduce the image resolution to produce a “shrunken” image with a reduced number of pixels. The image correlation is performed on the basis of the pixel unit for each offset position with respect to the image with reduced resolution. Once the area of maximum correlation is identified, the original maximum resolution image is compared on a pixel-by-pixel basis for each offset position in this area alone.
[0008]
Similarly, `` A Two-Stage Cross Correlation Approach To Template Matching '' by A. Goshtasby et al. Described in `` IEEE Transactions on Pattern Analysis and Machine Intelligence '' Vol. The two-stage technique is disclosed. In this paper, rather than increasing the resolution of the whole image as in Rosenfeld et al. And Hirooka et al., A limited number of pixels in the image to be correlated are compared for each image offset position, thereby A correlation function is generated. Similar to Hirooka et al. And Rosenfeld et al., A reduced number of pixels are used for comparison. However, unlike Hirooka et al. And Rosenfeld et al., The pixels used are at full resolution and do not represent the entire image to be compared. Similar to Hirooka et al. And Rosenfeld et al., In this technique, once a highly correlated area is identified using only a reduced number of pixels, the area should be further compared for each offset position. Analyzed using all pixels of the image.
[0009]
April 1985, in contrast to the techniques to increase resolution disclosed in Hirooka et al. And Rosenfeld et al., And to compare limited portions of full resolution images used in Goshtasby et al. In "A Advances in Picture Coding" by HGMusmann et al. Described on pages 523-548 of the published "Proceedings of the IEEE" Vol.73 No.4, a number of sparsely spaced searches around the central search point Two techniques for searching for points (hereinafter referred to as “sparse search points”) are described. According to this, all image correlation values are determined at each search point. Then, the obtained correlation value is analyzed. These analyzes usually indicate the direction of the correlation peak or valley relative to the sparse search point. A sparse search point located in the immediate vicinity of the correlation peak or valley direction is selected as a central point, and another sparse search point is selected around the central point. This process is repeated until a correlation peak or valley is identified. However, in the past, any technique that reduces the representation of images, such as those disclosed in Hirooka et al., Rosenfeld et al., Or Goshtasby et al. Similarly, in the technique disclosed in Musmann et al., As the center point approaches the correlation peak or valley, the sparse search points around the center point collapse, but each iteration has the same number of sparse operations. Use inter-search points.
[0010]
[Problems to be solved by the invention]
US patent application Ser. No. 09 / 860,636, fully incorporated herein, discloses a system and method for reducing the accumulation of systematic displacement errors in an image correlation system that uses a reference image. In particular, the 636 application discloses various methods for reducing the amount of system resources required to determine a correlation value of a specific positional displacement or offset of a second image relative to a first image. .
[0011]
In the above-mentioned Hirooka et al., Rosenfeld et al., Goshtasby et al., And Musmann et al., The disclosed techniques are useful for low spatial frequency grayscale images, low spatial frequency maps, and low spatial frequency video images. However, the resolution reduction or averaging techniques disclosed in Hirooka et al. And Rosenfeld et al. Are generally applied to high spatial frequency images, such as speckle images, images resembling surface textures, high-density dot patterns, and the like. It is not possible. This is because such resolution reduction or spatial averaging tends to “average out” or eliminate the various spatial features needed to determine an accurate correlation value in such high spatial frequency images. by.
[0012]
For similar purposes, N as disclosed in Goshtasby et al. 2 Sub-templates generated by picking a set of N data points randomly selected from a template with data points are also not applicable to such high spatial frequency images. In the low spatial frequency image used in Goshtasby et al., Each randomly selected data point (or pixel value) is likely to be approximately similar in image value to surrounding data points (or pixel values). Thus, each data point provides approximately the same amount to the correlation value. In contrast, in a high spatial frequency image, such as a speckle image, it appears that the image value of each pixel is significantly different from the image value of an adjacent pixel. Consequently, if the pixels to be used in the first stage of image correlation processing are selected randomly in such a high spatial frequency image, the resulting image correlation value at the actual offset position is It seems that it cannot be distinguished from the image correlation values at other offset amounts.
[0013]
The sparse search point technique described by Musmann et al. Is also generally not applicable to such high spatial frequency images. In particular, such high spatial frequency images are generally substantially flat or constant within a substantially limited range away from the actual offset position and substantially at an offset position very close to the actual offset position. Will have a "landscape" of the correlation function that is steep or irregular. That is, at an offset position away from the actual offset position, the correlation function is simply a certain regularity within a limited range from the average value, except for a very narrow range around the actual offset position. It will change depending on the method. In a very narrow range around this actual offset position, the correlation value is significantly away from other normal fluctuation values and their average values.
[0014]
In contrast, the sparse search point technique disclosed by Musmann et al. Relies on a “characteristic” of a correlation function consisting of a significant slope that indicates the direction of the correlation peak at all points. This allows an analysis of any set of sparse search points to clearly indicate the general direction of the correlation function peaks or valleys. However, applying the sparse search point technique disclosed in Musmann et al. To a correlation function with substantially flat or constant properties, except around the correlation peak or valley, is one of the sparse search points. Results in a distinct direction toward the correlation function peaks or valleys, unless they occur randomly within a very narrow range of correlation values away from the normal variation values and their average values. Don't be. However, this occurs with a very low probability in the particular sparse search point technique disclosed in Musmann et al., As can be appreciated by those skilled in the art.
[0015]
Thus, the inventor has found that a high resolution image system and / or image correlation system that allows displacement along two dimensions determines too much of the available system resources when determining a correlation value for each position displacement or offset. We paid attention to the point that we need. In addition, it was noted that even a system that only allows relative displacement along one dimension has the benefit of reducing the amount of system resources required when determining correlated displacement.
[0016]
The present invention has been made in view of such problems, and can reduce the amount of system resources necessary for executing correlation processing, and at the same time accurately determine the peak or valley of the correlation function. Phase An object of the present invention is to provide a function peak position determination method.
[0017]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, image The second image Is a correlation function generated by comparing with Peak part and background part other than peak part In a method for determining a peak position of a correlation function having Above First image The second image Compared to the correlation function The background part A comparison step for determining a correlation function value in a set of correlation function value points arranged in Correlation function value points present in the peak portion compared to at least one of an average correlation function value, a maximum correlation function value, a minimum correlation function value, a maximum slope value, and a minimum slope value that characterize a preset background portion In addition, the correlation function value is obtained more densely than the background portion, the peak position is determined based on these correlation function values, and one value belonging to the peak portion and one value belonging to the background portion are determined. Comparing the analysis step and There is provided a method characterized by comprising:
[0025]
It should be noted that the system and method according to the present invention will be described with reference to the sensor “image”, but the term “image” is not limited to an optical image, but one-dimensional, two-dimensional, or higher. More broadly applies to sets of sensor values arranged in dimensions. Similarly, the term “pixel” as used herein is not limited to optical pixels, but more to the granularity of a set of sensor values arranged in one, two, or higher dimensions. Widely applies. The term “image” is not limited to an entire image, but may be more broadly applied to any image portion that includes a set of sensor values arranged in one, two, or higher dimensions.
[0026]
In various embodiments of the correlation system and method according to the present invention, after the first and second correlation images are obtained, the signal generation processing circuit performs correlation processing using the first and second images. And a sparse set (details will be described later) of image correlation function value points is determined. In embodiments where the surface to be imaged moves only on a one-dimensional path relative to the imaging system, a sparse set of image correlation function value points is only taken along a single dimension. In contrast, in various embodiments that allow relative motion along two dimensions, a sparse sample set of image correlation function value points forms a grid in a two-dimensional correlation function space.
[0027]
In general, in various embodiments, the width of the correlation peak is the length of the imaging array along a single dimension in a one-dimensional system or along each of the two dimensions in a two-dimensional system with an imaging array. It is relatively small compared to the height or width. In general, in these various embodiments, the value of the correlation function in the area away from the correlation peak usually changes only within a limited range away from the average value. As long as the position of the correlation peak can be specified at the first relatively low resolution without having to determine the correlation function value for every possible displacement distance or offset, the sparse set of image correlation function value points is sparse as desired. You may make it set to. In high spatial frequency, non-repetitive images (where the frequency of the spatial features in the captured image is on the order of the pixel dimensions of the imaging system), the correlation function is typically a single, unique Will have a peak or valley. As a result, the correlation function typically has the same background value or average value, except in the area directly surrounding the correlation peak or valley, as shown in FIGS. . Thus, any correlation function value that occurs in a sparse set of image correlation value points that deviates substantially from a limited range around the average background value tends to identify such image peaks.
[0028]
On the other hand, any type of repetitive image produces a large number of peaks, each having the same size. Since such images do not have uniquely extreme correlation function peaks and / or valleys, the sparsely determined correlation function according to the present invention cannot be reliably used for such images. Finally, for non-repetitive images with characteristics of spatial frequency significantly lower than the spatial resolution of the image array, any number of irregular local peaks or valleys plus true correlation peaks or valleys will result in image correlation. Occurs in a function. As such, the background value reliably represents a particular portion of the correlation function, and any correlation position having an image value that is significantly away from the background value of the image correlation function is represented in the image correlation function space. Identify at least one local peak or valley.
[0029]
In various embodiments, the image correlation value determined at one of the image correlation function value points in the sparse set of image correlation function value point locations is pixel by pixel over the entire two-dimensional range of the first and second images. The total correlation of However, such accuracy is unnecessary, as it is very unlikely that one of the sparse sets of image correlation function value point locations is a true peak or valley of the correlation function. As a result, in various other embodiments, only one or a few of the rows and / or columns of the first and second images are correlated with each other.
[0030]
This does not lead to image correlation values that are made as accurate as possible. However, since the sampling location is simply used to indicate the location where more accurate analysis should be performed, the amount of system resources required to determine the correlation function value for this sample location in these embodiments is significantly reduced. This lack of accuracy can be ignored, especially if the points to be considered are taken into account. This is particularly true when the current sample location is one of the two-dimensional grids over the two-dimensional correlation space that occurs when the surface to be imaged moves in two dimensions relative to the imaging system.
[0031]
In various embodiments, at least one correlation peak or valley is identified in the image correlation function. Thereafter, all image correlation sampling positions in the correlation function space that are within a predetermined distance or a dynamically determined distance to each such peak or valley position are determined. The determined image correlation sampling position is analyzed to identify a displacement point having an image correlation value closest to the true peak or valley of the image correlation function. In some embodiments, this correlation process may be performed entirely based on a pixel-by-pixel comparison of all pixels in the first and second images.
[0032]
Instead, in various other embodiments, the image correlation values at those image correlation positions surrounding the peaks or valleys determined by the sparse technique are used to reduce the accuracy and reduce the amount of system resources. The position in the image correlation space that appears to be closest to the true peak or valley of the image correlation function can be determined again with low resolution. Then, more accurately determined image correlation peaks or troughs, actual image correlation peaks or troughs 671 at those locations that are within the second predetermined distance or within the second dynamically determined distance, 671 Can be specified as outlined in the application.
[0033]
In the above embodiment where the surface to be imaged has a non-repetitive, low spatial frequency image thereon, each of these examples is performed on each identified peak or valley. The actual correlation function peak or valley position may be determined.
[0034]
In various other embodiments, in a one- or two-dimensional motion system, a highly effective “shutter speed” in the imaging system is used to provide a clear or clear image, ie a “non-smear” image (details). Rather than filming (see below), a “smear” image can be obtained by using a low shutter speed. Since the surface to be imaged moves relative to the imaging system only during the time that the shutter is effectively open, the resulting smear image is between the surface to be imaged and the imaging system. Will have the major axis of smear image features aligned in the direction of their relative motion. In addition, the length of the major axis of the smear image feature is the magnitude of the motion of the imaged surface for the optical system compared to the same feature axis obtained along the direction of motion using a fast shutter speed. That is, it is strictly related to speed.
[0035]
In a one-dimensional system, direction information may be made unnecessary because the system is restricted by definition to move only along a single dimension. In this case, the size of the smear can be determined using the width of the correlation peak obtained by autocorrelating the smear image with itself. The direction of the velocity vector can also be determined by autocorrelating the captured image with itself. This is also true when the direction of relative motion is substantially aligned along one of the axes of the imaging array in a two-dimensional system.
[0036]
Once the direction and magnitude of relative motion is determined, this information can be used to determine the number of sparse sampling positions in the correlation function space to be analyzed, ie, the image correlation function value points in the sparse set of image correlation function value points. Can be used to further reduce the number of
[0037]
Furthermore, if additional magnitude and direction information can be obtained from the second image by autocorrelation, the accuracy of the direction or magnitude and velocity vector components can be further increased.
[0038]
In various other embodiments of the correlation system and method according to the present invention, the system and method are particularly well suited for application to speckle images, texture images, high density dot images, and other high spatial frequency images. To do.
[0039]
In various other embodiments of the correlation system and method according to the present invention, the system and method specifically determine the peak position of the correlation function at high speed and with high accuracy, while simultaneously reducing the load on system resources. It is well suited to determine the normal area in the two-dimensional correlation function space.
These and other features and advantages of the present invention are described in, and will be apparent from, the following detailed description of various embodiments of the systems and methods according to the present invention.
[0040]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0041]
FIG. 1 is a block diagram showing a configuration of an optical position transducer 100 based on a correlation image (hereinafter referred to as “correlation image base”). In the following detailed description, the system and method according to the present invention will be related to an optical position transducer mainly based on speckle images (hereinafter referred to as “speckle image base”) and corresponding methods and techniques. I will explain. However, the system and method according to the present invention is not limited to such a speckle image based correlation system and method. Rather, the systems and methods according to the present invention can be used with known or later developed systems or methods for determining positional displacements or offsets, which are known or later developed systems or methods. The method is a well-known or later-developed type of correlation image, including texture images, high-density dot images, and the like, as long as the correlation image has a high spatial frequency and / or is not repetitive at all. Is used. Accordingly, in the detailed description of the embodiments below, speckle image-based optical position transducers, correlation systems and / or correlation techniques are specifically cited, but this is merely exemplary and the scope and breadth of the present invention. It does not prescribe any limit.
[0042]
Where the pixel offset value associated with the true continuous correlation function extremum, regardless of whether the basic correlation function produces a peak or valley, We will refer to the peak offset, and the surface displacement corresponding to the peak offset will be referred to as peak displacement or simply displacement, regardless of whether the basic correlation function produces a peak or valley. In particular, in the correlation functions shown in FIGS. 3 and 5, the correlation function having a correlation function value displayed in an arbitrary unit is a pattern in which an image or its intensity is best aligned in each of the first and second images. The extreme value of the true continuous correlation function 205 is shown with an offset value or a spatial transformation position that forms
[0043]
The speckle image-based optical position transducer 100 shown in FIG. 1 includes a read head 126, a signal generation processing circuit 200, and an optically rough surface (hereinafter referred to as an “optical diffusion rough surface”) 104. In FIG. 1, the components of the read head 126 and the relationship between them and the optically diffusing roughened surface 104 are shown schematically in an arrangement that generally corresponds to an exemplary physical configuration, as further described below. A correlated image-based optical position transducer 100 using speckle images is described in more detail in the cited 264 application, along with various suitable mechanical and optical configurations, image correlation methods, and associated signal processing circuitry. Has been.
[0044]
The optical diffusion rough surface 104 that diffuses the light is illuminated by the light emitted from the end of the read head 126 by the light source 130 when the optical diffusion rough surface 104 is illuminated by the end of the read head 126. Is positioned adjacent to the illumination and receiving end of the read head 126 so that it scatters back from the optical diffusing rough surface 104 toward the image receiving optical element located at the front. The optically diffusing rough surface 104 may be a part of a specially provided element, or may be provided as a surface constituting a unified body of a mechanism that exists remotely.
[0045]
In either case, the optical diffusing rough surface 104 is disposed at a substantially fixed distance from the light source and optical system housed in the read head 126 and is in relative motion, such as measurement axes 110 and 112 shown in FIG. Moves along the one or two axes at the position opposite the read head 126. When motion in two dimensions is allowed, the permitted motion is usually unconstrained within the lateral limits of the two-dimensional area of the optical diffusion rough surface 104. Where only a single dimensional relative motion is allowed, the relative motion is typically a conventional guideway or bearing mounted on a frame that maintains the proper relative position between the read head 126 and the optical diffusing roughened surface 104. (Not shown) is forced along one of the measurement axes 110 or 112. The read head 126 assists in mounting the read head 126 and / or relative to one or two expected axes of relative movement of the optical diffusion rough surface 104 with respect to the mounting frame. Alignment features (not shown) that align internal components may also be included.
[0046]
As shown in FIG. 1, the image receiving optical element of the read head 126 includes a lens 140 located at the illumination and receiving end of the read head 126, the optical axis of which is illuminated on the optical diffusing rough surface 104. It is arranged so as to pass almost through the place. As shown in FIG. 1, the read head 126 further includes a pinhole aperture plate 150 positioned away from the lens 140 along the optical axis, and a photodetector 160 positioned away from the aperture plate 150 along the optical axis. Including. Photodetector 160 is a well-known or later-developed type organized into an array of independent individual light sensitive elements, such as a camera, electronic or digital camera, CCD array, CMOS light sensitive element, or the like. Any light sensitive material or device.
[0047]
One embodiment of the placement and positioning of the read diffuser 126, including the optically diffusing roughened surface 104 and the lens 140, aperture plate 150, and photodetector 160, is further described below and in the cited 264 application. The mounting of the light source 130, lens 140, aperture plate 150, and photodetector 160 within the housing of the read head 126 is a small optical device configuration and / or as long as their respective components are mounted in a precise and stable manner. Or you may make it carry out by the conventional method of an industrial camera structure.
[0048]
When the read head 126 is properly positioned adjacent to the optical diffusing rough surface 104, each image taken by the photodetector 160 forms a peak by positively combining the diffracted light waves from the optical diffusing rough surface 104. And a random pattern consisting of relatively dark spots that are diffracted from the diffracted light wave from the optical diffusion rough surface 104 and are negated. The random pattern corresponding to any of the illuminated portions of the optical diffusing rough surface 104 is unique. Thus, the optically diffusing rough surface 104 can serve as a displacement reference without requiring any special marks.
[0049]
Photodetector 160 has an array 166 of image elements 162 arranged at known intervals along at least one axis. The known spacing provides a basis for measuring the displacement or offset between the two images projected on the photo detector 160 and thus measures the displacement of the surface that determines the image, ie, the optical diffusing rough surface 104. The basis for this is also provided.
[0050]
In general, however, the array 166 is deployed in two dimensions along two orthogonal axes at known intervals along each axis. This known spacing need not be the same on both axes. In systems that allow movement along only a single axis, the array 166 often has a length along its axial direction that is much larger than the length of the array 166 that intersects its axial direction. . In a system that allows two-dimensional motion, the length of the array 166 along each of the two orthogonal axes is approximately the same order of magnitude and need not be exactly the same.
Further, the read head 126 includes at least one portion of the signal generation processing circuit 200. As shown in FIG. 1, a signal line 132 from the signal generation processing circuit 200 is connected to the light source 130 in order to control and / or drive the light source 130. The signal line 164 connects the photodetector 160 and the signal generation processing circuit 200. Each of the image elements 162 in the array 166 is individually addressed to output a value representing the light intensity on the image element 162 to the signal generation processing circuit 200 via the signal line 164. Also good. Additional portions of the signal generation processing circuit 200 may be located remotely from the read head 126, and the functions of the read head 126 are implemented and displayed remotely. The signal generation processing circuit 200 will be described in more detail below with reference to FIGS.
[0051]
Additional details regarding the construction and operation of this and other embodiments of the speckle image-based optical position transducer 100 are provided below, which description is also provided in the cited 264 application.
[0052]
As shown in FIG. 1, a light beam 134 is emitted by a light source 130 to illuminate the optical diffuse rough surface 104 to illuminate a portion of the optical diffuse rough surface 104. As a result, the rough optical diffusion surface 104 scatters light in the vicinity of the optical axis 144 and diffracts it.
[0053]
When light source 130 is a white light source, the light produces an image of the illuminated portion that is projected onto array 166 of image elements 162. Note that this image may be correlated in the same way as a speckle image is correlated, but this image includes speckle formed by scattering from the optically diffusing rough surface 104. There will be no.
[0054]
When the light source 130 is a coherent light source and is driven by a drive signal on the signal line 132 to output the light beam 134 as a coherent light beam, the coherent light beam 134 illuminates a portion of the optical diffuse rough surface 104. The illuminated portion is located in the portion of the read head 126 along the optical axis 144 of the optical device. The light 136 scattered from the illuminated portion of the rough optical diffusion surface 104 is collected by the lens 140.
[0055]
The lens 140 projects the collected light 142 from the illuminated portion of the optical diffusion rough surface 104 onto a pinhole aperture plate 150 having a pinhole aperture 152. The lens 140 is disposed away from the aperture plate 150 by a distance f equal to the focal length of the lens 140. The pinhole aperture plate 150 is disposed at a distance h from the illuminated portion of the optical diffusion rough surface 104.
[0056]
By placing the aperture plate 150 at the focal length f of the lens 140, the optical device of the speckle image-based optical position transducer becomes telecentric. Further, by using the pinhole 152 in the pinhole aperture plate 150, the speckle size and the expansion of the speckle pattern depend only on the dimensions of the pinhole 152 and in particular are independent of any lens parameters of the lens 140. .
[0057]
The light collection 142 from the lens 140 passes through the pinhole 152. The light 154 that has passed through the pinhole 152 is projected onto the array 166 of the image elements 162 of the photodetector 160 along the optical axis 144. The surface of the array 166 of photosensitive elements 162 is separated from the aperture plate 150 by a distance d. The speckle size depends only on the angle α to the dimension of the pinhole 152 and the distance d between the pinhole aperture plate 150 and the surface formed by the array 166 of the image elements 162 of the photodetector 160.
[0058]
The approximate size D of the speckle in the detected portion of the light reaching the array 166 of the image element 162 from the illuminated portion of the optical diffusion rough surface 104 is expressed by the following equation (1).
[0059]
[Expression 1]
Figure 0004303454
[0060]
Where λ is the wavelength of the light beam 134, d is the distance between the pinhole aperture plate 150 and the surface of the array 166, w is the diameter of the circular pinhole 152, α is the dimension w in a circle of radius equal to the distance d. The central angle corresponding to the minute arc.
[0061]
In various embodiments, typical values for these parameters of the optical position transducer 100 are λ = 0.6 μm, d = 10 cm (10 Five μm), w = 1 mm (10 Three μm). As a result, the speckle size D is approximately 60 μm.
[0062]
In order to achieve high resolution, it is most effective when the average speckle size is approximately equal to or slightly larger than the pixel size of the image element 162 of the photodetector 160. Further, in various embodiments of read head 126, the average speckle size is approximately twice to ten times the pixel spacing of image element 162.
[0063]
In order to acquire an image, the signal generation processing circuit 200 outputs a drive signal to the signal line 132 to drive the coherent light source 130 to emit the coherent light beam 134. The light beam 134 illuminates a portion of the optical diffusing rough surface 104, thereby producing an image on the array 166 of image elements 162 of the photodetector 160. At this time, a plurality of signal portions are input to the signal generation processing circuit 200 via the signal line 164. Each signal portion here corresponds to an image value detected by one or more of the individual image elements 162.
[0064]
In order to determine the displacement of the optical diffusing rough surface 104 between the two images, a signal portion representing the first image sent from the photodetector 160 and received by the signal generation processing circuit 200 is stored in the memory. After a short time has elapsed, the signal generation processing circuit 200 drives the coherent light source 130 again and receives the second image signal from the photodetector 160 via the signal line 164. In general, the second image signal is generated and acquired during a short time interval after acquisition of the first image signal at a time interval depending on the displacement speed of the optical diffusion rough surface 104 relative to the photodetector 160. It must be. This time interval should be short enough to ensure that the first and second images are sufficiently “overlapping”. That is, the time interval ensures that the pattern of image values present in the first image is also present in the second image and an important correlation between the two images can be determined. Must be short enough.
[0065]
A process is performed on the first image and the second image, ie, the displaced image, to generate a correlation function. In practice, the second image is digitally applied to the first image over a range of offsets, including offsets that substantially align the patterns of the two images, or a range of spatial transformation positions. Moved. The correlation function indicates the degree of pattern alignment, and thus when the two images are digitally moved, it indicates the amount of offset required to align the images.
[0066]
FIGS. 2, 4 and 6 are diagrams illustrating one embodiment of a pixel configuration in the reference image 300 and are imaged along a single dimension 304 via an imaging device such as a photodetector 160. FIG. 6 is a diagram illustrating one embodiment of a pixel configuration in a displacement image 310 obtained by moving a surface, such as a roughened optical diffusing rough surface 104. That is, the offset of the displacement image 310 relative to the reference image 300 occurs along only a single dimension. As shown in FIGS. 2, 4 and 6, each of the reference image 300 and the displacement image 310 is organized in a plurality of rows 320 and a plurality of columns 330. There are many other techniques for comparing the first image with the second image. For example, in the conventional technique as shown in FIG. 2, all frames of the current second image are compared with all frames of the first image for each pixel, and a single correlation value is generated.
[0067]
Thus, in the conventional technique as shown in FIG. 2, the displacement image 310 is first compared with the reference image 300 at the first offset position. At this offset position, the left and right edges of the displacement image 310 are aligned with the left and right edges of the reference image 300. At this offset position, the correlation function value is determined by comparing each pixel 302 of the reference image 300 with the corresponding pixel 312 of the displacement image 310. Thereafter, the displacement image 310 is moved by one pixel along the displacement direction 304 with respect to the reference image 300. Again at this offset location, each of the pixels 312 of the displacement image 310 is compared to the corresponding pixel 302 of the reference image 300 at that offset location. The series of correlation values generated by moving the second image by one pixel relative to the first image after each comparison is made can be graphed as a correlation function, as shown in FIG.
[0068]
In the specific example shown in FIG. 2, the displacement image 310 has been moved 6 pixels or 6 offset positions to the left with respect to the reference image 300. Of course, the displacement image 310 may be displaced in both the left and right directions with respect to the reference image 300. Further, as long as the displacement image 310 is sufficiently superimposed on the reference image 300 so that a reasonable and accurate correlation function value point is likely to be obtained, the displacement image 310 may continue to match the reference image 300. . Further, for pixels that are located in the reference image and displacement image areas but are not overlaid in the other areas of the reference image and displacement image, the pixels are compared to pixels having default values, or the default A comparison value or the like may be assigned.
[0069]
Cyclic boundary conditions may be used when all the frames of the current reference image are compared with all the frames of the current displacement image. As shown in equations (2) and (3) described later, a correlation value is obtained for each row, and the row correlation values are summed. This sum is then averaged over M rows to obtain a noise-reduced average correlation function value point. This averaging is desirable to ensure that the correlation function value points are approximately stable with respect to the resolution obtained by performing interpolation to determine the extreme values of the correlation function. Accordingly, when each correlation function value point is offset by about 1 μm from an adjacent correlation function value point to obtain a resolution of approximately nanometers by interpolating to determine the extreme value of the correlation function, the correlation function value It is believed that the points need to be roughly stable for the desired nanometer resolution value.
[0070]
FIG. 3 is a graph showing a result of comparing the first and second images using the conventional technique shown in FIG. 2 by the above-described conventional multiplicative correlation function method. As shown in FIG. 3, a correlation function 400 is generated by roughly connecting each of the correlation function value points for each offset position. Here, the correlation function 400 includes a plurality of discrete correlation function value points 402 separated in the X-axis direction by a predetermined offset increment corresponding to the pixel pitch P indicated by the distance 404. This predetermined offset increment may be directly related to the displacement increment of the optical diffusion rough surface 104 shown in FIG. This displacement increment depends on the effective distance between the center points between the individual image elements 162 of the array 166 in the direction corresponding to the measurement axis 110. In addition, this displacement increment is also referred to as a pixel pitch P in the following description, and is also referred to as an amount of enlargement of the displacement of the optical diffusion rough surface 104 by the optical device of the read head 126.
[0071]
For example, if the effective distance between the central points of the image element 162 in the direction corresponding to the measurement axis 110 is 10 μm and the optical device of the read head 126 enlarges the surface displacement by about 10 times, the optical diffusion rough surface 104 A 1 μm displacement of the illuminated portion is magnified to a 10 μm displacement of the speckle pattern on the image element 162.
[0072]
Each correlation function value point 402 is generated by digitally moving the second image relative to the first image by an effective distance between the center points of the image element 162 in a direction corresponding to the measurement axis 110. . In this case, since the effective distance between the center points of the image element 162 corresponds to a displacement of about 1 μm of the optical diffusion rough surface 104, the discrete correlation function value points 402 are separated by a displacement distance of about 1 μm.
[0073]
As shown in FIG. 3, the “landscape” of the correlation function 400 can be divided into two different parts: a normal background part 410 and a peak part 420. Typically, in the background portion 410, the correlation function exhibits a value within a relatively limited range and is substantially flat or constant. The peak portion 420 has a peak or valley extreme value, has a substantially steep slope portion, and / or shows a correlation value substantially outside the limited range in the background portion 410. In particular, the normal background portion 410 is composed of correlation function value points 402 having correlation function values within a range 412 of values substantially smaller than the range of correlation function values included in the peak portion 420. This range 412 is often narrower than the range of correlation function values of the correlation function in the various embodiments described herein, but as long as the peak portion 420 can be reliably distinguished from the normal background portion 410, the range 412 need not have any special relationship to the range of correlation function values of the correlation function. Thus, the shift of the correlation function in the normal background portion 410 can be easily distinguished from the correlation function peak, but in other cases it may actually be significantly bumpy in various applications.
[0074]
In the normal background portion 410, the correlation function value point 402 has a correlation function value that is not larger than the maximum background value 414 and not smaller than the minimum background value 416. In contrast, in a peak type correlation function value, almost all of the correlation function value points 402 located within the peak portion 420 have a correlation function value that is significantly greater than the maximum background value 414. Similarly, in valley type correlation function values, almost all of the correlation function value points 402 located within the peak portion 420 have correlation function values that are significantly smaller than the minimum background value 416.
[0075]
In general, the correlation function value points 402 located within the correlation function peak portion 420 are typically placed almost equally on either side of the actual correlation function peak 422 representing the offset position where the two images are most closely aligned. Therefore, the actual correlation function peak 422 is roughly located at or near the center point of the width 424 of the correlation function peak portion 420.
[0076]
However, as outlined above, in this prior art, in order to determine each pixel-to-pixel correlation value, and to accumulate a correlation value for each pixel-to-pixel comparison in the first image, Also, a significant amount of system resources must be provided in order to apply the appropriate scaling criteria and to do this for each possible correlation function value point 402. This is especially true when the second image can move in at least two orthogonal directions relative to the first image. In this case, a single full frame comparison is performed not only for every possible offset in each of the m columns located in the row direction, but also for every possible offset in the n rows located in the column direction. It is done with every.
[0077]
Thus, in this prior art, for a one-dimensional displacement, each of the first image and the second image consists of M × N pixels arranged in a two-dimensional array of M rows of pixels and N columns of pixels. One common correlation algorithm is represented by the following equation (2).
[0078]
[Expression 2]
Figure 0004303454
[0079]
Where R (p) is the correlation function value for the current offset value, p is the current offset value in pixels, m is the current column, n is the current row, I 1 Is the image value of the current pixel in the first image, I 2 Is the image value in the second image.
[0080]
In this conventional technique, p changes by one pixel from -N to + N. However, usually the range of p is limited to -N / 2 to + N / 2, -N / 3 to + N / 3, or similar ranges.
[0081]
For two-dimensional displacement, one common correlation algorithm when each of the current reference image and the current displacement image consists of M × N pixels arranged in a two-dimensional array of M rows of pixels and N columns of pixels. Is expressed by the following equation (3).
[0082]
[Equation 3]
Figure 0004303454
[0083]
Where R (p, q) is the correlation function value for the current offset value in each of the two dimensions, p is the current offset value in pixels along the first dimension, and q is along the second dimension. Current offset value in pixels, m is current column, n is current row, I 1 Is the image value of the current pixel in the first image, I 2 Is the image value in the second image.
[0084]
Similarly in this conventional technique, q changes by 1 pixel from −M to + M. Usually, however, the range of q is limited to -M / 2 to + M / 2, -M / 3 to + M / 3, or the like.
[0085]
As a result, in this conventional technique, up to 2M correlation function value points in one-dimensional displacement, and up to 2M × 2N correlation function value points in a system that allows two-dimensional displacement. It is required to determine the correlation value. Therefore, in the conventional full-frame analysis, the system resource amount is excessively consumed in the one-dimensional displacement, and the degree is much higher in the two-dimensional displacement. As a result, full frame correlation requires systems with significant processing power and / or high speed processors. Without such a system, it is impossible to execute the full frame correlation function peak search process in real time.
[0086]
However, as outlined in the cited 671 application, even when the offset position is determined with very high accuracy by interpolation, usually only a few points near the extremum in the peak portion 420 of the correlation function 400 are actually It is only used to determine the offset position. As such, some of the correlation function value points 402 located in the correlation function peak portion 420 are not used to determine the offset position, and none of the correlation function value points 402 located in the background portion 410 are used for it.
[0087]
Thus, the inventor locates the correlation function value point 402 within the correlation function peak portion 420 before it becomes desirable to determine the total correlation function value for each correlation function value point close to the peak 422 of the correlation function 400. Thus, it has been noted that it is absolutely necessary to roughly determine the position of the correlation function peak 422. The inventor has also found that one or more such correlation function value points 402 located within the correlation function peak portion 420 are sparsely located by searching the correlation function 400 and sparsely in the correlation function 400. It has been noted that by determining the correlation function value of the correlation function value point 402 of
[0088]
As noted above, a few correlation function value points 402 around the peak 422 are often used to determine the true peak offset position of the correlation function 400. Therefore, in order to determine the offset position of the peak 422, the inventor determines the correlation function value point in the sparse set (sparse set, a set of sparsely arranged correlation function value points) located within the peak portion 420 of the correlation function 400 Noted that it may be possible to use only some of the 402s. That is, the offset position of the peak 422 can be determined without determining the correlation function value of each correlation function value point 402 close to the peak 422 of the correlation function 400.
[0089]
The inventor also relates to the average value of the values in the range 412 of the normal background portion 410, usually for high spatial frequency images where the sparse set technique of correlation function value points used in the system and method according to the invention is particularly effective Note that there is generally some a priori knowledge of and a priori knowledge about the approximate values of the maximum background value 414 and the minimum background value 416.
[0090]
For example, in the speckle image-based optical position transducer 100 shown in FIG. 1, the optical diffusing rough surface 104 generates such a high spatial frequency image. When such a high spatial frequency speckle image is used as the reference image and displacement image described above for a given optical diffusion rough surface 104, the maximum background value 414 and / or minimum background of the background portion 410 The ground value 416 is very stable and can be determined during the manufacturing process of the speckle image based optical position transducer 100. As a result, the maximum background value 414 or the minimum background value 416 can be stored in the signal generation processing circuit 200 according to the method of the correlation function used, and can be used as a threshold. In practice, in speckle image-based position transducer 100, R (p, q) is often related to the average value of image intensity in order to remove the dependence of correlation function value R (p, q) on laser intensity. Normalized. Thereby, in these states, the value of the correlation function actually becomes the normalized value of the correlation function.
[0091]
That is, the signal generation processing circuit 200 has a priori knowledge of the correlation function background value 414 or 416 that the correlation function value point of the peak portion 420 must be greater than or less than. As a result, a simple comparison with the a priori value is made and a single correlation function value with a correlation function value that is located above the maximum background value 414 or below the minimum background value 416. By finding the point, the approximate location of the peak portion 420 is quickly determined.
[0092]
The inventor further discovered that the width 424 of the peak portion 420 in such a high spatial frequency image is generally narrower than the full range of the correlation function region. The inventor also shows that the correlation function value of the correlation function value point 402 at the end of the peak portion 420 is clearly deviated from the average correlation function value of the correlation function value point 402 that is normally located in the background portion 410. discovered. That is, generally, such a high spatial frequency image is not more correlated at a position closer to the peak portion 420 than a position far from the peak portion 420 to the immediate vicinity of the actual correlation function peak 422. In contrast, non-high spatial frequency images, such as those used in the sparse search technique disclosed by Musmann, have very wide and shallow correlation function value peaks. That is, the technique disclosed in Musmann works only because the correlation function at all points has a slope that points in the direction of the correlation function peak position.
[0093]
In certain aspects, there may not be any a priori knowledge available about the particular image to be used as the reference image 300 and the displacement image 310. However, the inventors further noted that even if such a priori knowledge is not available, such a priori knowledge can be easily derived whenever the correlation function 400 is determined. That is, in general, for most high spatial frequency images, the average value of the background portion 410, and the range 412, the maximum background value 414 and the minimum background value 416 of the normal background portion 410 are substantially stable, especially the peak portion. It is stable compared to the correlation function value obtained corresponding to the correlation function value point 402 located within 420.
[0094]
Thus, these values can be derived from a well-defined correlation function obtained by comparing the displacement image with the reference image in the conventional manner. These values can also be derived by comparing a given image with itself, ie by autocorrelation. In addition, for the same reasons outlined above, the width of the peak part of the autocorrelation function (as defined by the zero offset position) is not determined, and the correlation function value of the correlation function value point far from the zero offset position is not determined And determining the correlation function value of at least one subset of the correlation function values near the zero offset position. Similarly, for the same reasons outlined above with reference to FIG. 3, fewer than all pixels of the image may be available for generation of correlation function values in the autocorrelation function.
[0095]
In the first embodiment according to the present invention shown in FIGS. 4 and 5, the peak search of the image correlation function is performed in place of the conventional image correlation function peak search processing described with reference to FIGS. It is performed as a (or more) stage process. In particular, as shown in FIG. 4, rather than comparing the displacement image 310 with the reference image 300 for each column 330, the displacement image 310 is compared with the reference image 300 only in the columns 332 selected away from each other.
[0096]
For example, in the embodiment shown in FIG. 4, the displacement image 310 is currently compared with the reference image 300 at the offset position corresponding to the column 332-2. In the previous comparison, the displacement image 310 is compared with the reference image 300 at an offset position corresponding to a column 332-1 that is one or more skipped columns 332 away from the current column 332-2. Similarly, the next comparison of the displacement image 310 with the reference image 300 is performed in column 332-3 that is one or more skipped columns 332 away from the current column 332-2.
[0097]
That is, in the first stage, at a large number of sparsely arranged offset positions, all the rows of the displacement image are all compared with the corresponding rows of the reference image, and a correlation value is generated. Thus, after each comparison is made, such a series of sparse correlation values corresponding to the correlation values shown in FIG. , By a predetermined number of pixels, or a dynamically determined number of pixels, or by moving to the next position in a predetermined predetermined offset position or to a dynamically determined offset position.
[0098]
Next, in the first embodiment of the sparse search technique according to the present invention, an analysis is performed on the sparse set of the correlation function value points 402 determined in the first stage, whereby the background portion 410 is analyzed. The correlation function value points 402 of the sparse set located outside the correlation function value range 412 are identified, that is, the correlation function value points 402 of the sparse set located within the peak portion 420 of the correlation function 400 are identified. . As outlined above, in a high spatial frequency image, such as an image on the optical diffusing rough surface 104 used in the system and method of the present invention, the correlation function value point 402 in the normal background portion 410 of the correlation function, i.e. The points 402 that are not located in the peak portion 420 usually have values that are distributed only slightly away from the average value of the background portion 410. That is, the value of the correlation function value point of the normal background portion 410 does not become larger than the maximum background value 414 and does not become smaller than the minimum background value 416.
[0099]
Thus, by comparing the image value of each correlation function value point 402 in the set of sparsely arranged correlation function value points shown in FIG. 5 with the minimum background value 416 or the maximum background value 414, the correlation of the sparse set. The function value point 402 can be easily classified as part of the background portion 410 or part of the peak portion 420. As a result of identifying one or more correlation function value points 402 of the sparse set correlation function value points 402 located within the peak portion 420, the peak portion 420 and the peak or valley of the correlation function may be generally identified. it can.
[0100]
Instead, in the second embodiment of the sparse search technique according to the present invention, the sparse set of the correlation function value points 402 determined in the second stage is analyzed, and a slope larger than the slope threshold is obtained. The adjacent pair of points in the correlation function value point 402 of the sparse set is specified. That is, as shown in FIGS. 3, 5, and 7-10, the absolute value of the slope of the correlation function defined between adjacent correlation function value points 402 located in the background portion 410 is located in the peak portion 420. Is significantly less than the absolute value of the slope between many pairs in adjacent correlation function value points with at least one pair.
[0101]
Thus, the maximum absolute value of the slope between any set of two correlation function value points both located in the background portion can be determined as the slope threshold. Then, for any set of adjacent correlation function value points of the sparse set, the sparse slope of the correlation function between those two sparse correlation function value points can be determined. The absolute value of the slope can be compared to a slope threshold. If the absolute value of the sparse slope is greater than the slope threshold, at least one of the adjacent correlation function value point pairs is located within the peak portion 420.
[0102]
Alternatively, the maximum positive slope and the maximum negative slope can be similarly determined as a pair of slope thresholds. The sparse slope value can then be compared to the pair of slope thresholds. Thus, if the sparse slope is more positive than the positive slope or more negative than the negative slope, at least one of the adjacent correlation function value point pairs is located within the peak portion 420.
[0103]
Of course, as long as both of a pair of adjacent correlation function value points are located within the peak portion 420, the absolute value of the slope in the pair of correlation function value points is less than or equal to the above absolute value, or the slope thereof. May be a value between the maximum positive slope and the maximum negative slope. In order to prevent this from adversely affecting the sparse search technique described above, some or all of the adjacent pairs of sparse sets of correlation function value points are analyzed in various embodiments. A slope threshold or slope value, such as an average value, a minimum value, and / or a maximum value of the background portion 410, is determined from an autocorrelation function or from a correlation function of a set of representative images, or predetermined. You may make it do.
[0104]
Then, in the second stage, based on the roughly determined position of the peak portion 420, the first and second images are compared at a position around the correlation space, that is, at an offset position located within the peak portion 420. All or at least a sufficient number of correlation values of the correlation function value points 402 located within the roughly determined peak portion 420 are generated. In particular, the pixel displacement corresponding to the peak correlation value is often clearly determined in the second stage because the sparse search simply loses one or several pixels worth of pixel displacement. As described in the cited 761 application, only the correlation values around the actual correlation peak 422 may be used to determine the interpolated sub-pixel displacement. Thus, an additional number of correlation function value points 402 need only be determined around the above-determined correlation peak 422 or valley.
[0105]
In the particular embodiment shown in FIGS. 4 and 5, only every second offset position is used to determine the correlation function value point 402, as compared to the embodiment shown in FIGS. As a result, as shown in FIG. 5, only four correlation function value points 402 a-402 d in the sparse set of correlation function value points 402 are located within the width 424 of the correlation function peak portion 420. However, only M / 3 (or fewer) correlation function value points 402 are determined to have the peak portion 420 than the M correlation function value points in the prior art shown in FIGS. Of course, much more sparsely arranged sets of offset positions may be used.
[0106]
Note that the correlation function value point 402 b has a correlation function value farthest from the average value of the background portion 410. The correlation function value point 402b is located within the correlation function peak portion 420, but is sandwiched by a pair of correlation function value points 402a and 402c having a correlation function value closer to the average value of the background portion 410. . Therefore, the actual correlation function peak 422 should be somewhere between the first correlation function value point 402a and the third correlation function value point 402c.
[0107]
Thus, it is only necessary to determine correlation function value points for additional high resolution offset positions that are between the offset positions corresponding to the first and third correlation function value points 402a and 402c. Further, depending on the particular technique used to interpolate between all sets of correlation function value points 402 or to fit a curve to all sets of correlation function value points 402, for example, correlation function values It may only be necessary to determine a correlation function value point with an offset close to the correlation function value point 402b, such as an offset within two or three high resolution offset steps from point 402b.
[0108]
As explained above, in the embodiment shown in FIG. 5, a sparse set of correlation function value points is generated by determining correlation function values at every two offset positions. That is, in the embodiment shown in FIG. 5, a sparse set of correlation function value points is generated by skipping a predetermined number of offset positions or pixels.
[0109]
In general, as described above, in high spatial frequency images to which the system and method of the present invention are particularly applicable, the average value of the background portion 410, the maximum and minimum values 414, 416 of the background portion 410, and / or Alternatively, the width 424 and approximate height of the peak portion 420 can be known as a priori knowledge of a system for imaging a known object. Such a situation includes imaging the optically diffuse rough surface 104 in the speckle image-based optical position transducer system 100 shown in FIG.
[0110]
In such a situation, since the width 424 of the peak portion 420 is known, at least one of the sparse sets of the correlation function value points 402 is within the width 424 of the peak portion 420 regardless of the position of any correlation function 400. A predetermined number of correlation function value points 402 included in the sparse set of correlation function value points 402, i.e. their spacing, can be selected. However, preferably a sufficient number of correlation function values for the sparse set of correlation function value points to ensure that two or three of the correlation function value points 402 of the sparse set are located within the width 424 of the peak portion 420. The point 402 may be included (and thereby have a smaller space).
[0111]
However, as described above, it is determined by dynamically determining the number of correlation function value points 402 to be included in the sparse set (and the spacing between adjacent pairs of correlation function value points 402) and in sequential order. By using the above numbers to determine a predetermined order of correlation function value points 402 to be performed, or by dynamically determining the order of correlation function value points 402 to be determined in sequential order, A sparse set of correlation function value points 402 may be generated in other embodiments. When dynamically determining the number of correlation function value points 402 to be included in the sparse set (including, in particular, determining the above interval), the previous offset determined in the previous correlation event As in the case where the sparse set view is dynamically determined, the sparse set may be dynamically determined for each correlation event. Or you may make it determine a sparse set dynamically based on the change to the base image used in a correlation process. The sparse set of points may be determined dynamically during setup mode or calibration mode before normal processing, or in various embodiments, in near real time or real time during normal processing. Good.
[0112]
In addition, any correlation function value point with a correlation function value located outside the range 412 of the background portion 410 identifies the location of the correlation function peak portion 420 in various embodiments, so that the peak portion 420 Determining the correlation function value of a correlation function value point located at a distance greater than the peak width 424 from the first determined one of the sparse sets of correlation function value points located within You may do it. As a result, whenever the width of the correlation function peak portion 420 is traversed, the correlation function value point 402 is skipped by skipping the correlation function value point 402 of the sparse set of correlation function value points 402 that have not been analyzed. It is possible to further reduce the sparse set.
[0113]
That is, it had a correlation function value greater than the maximum background value 414 for extreme values going in the positive direction of the background portion 410 or a correlation function value smaller than the minimum background value 416 for extreme values going in the negative direction. Whenever a correlation function value point is identified, the approximate location of the peak portion 420 is determined. Further, as described above, the width 424 of the peak portion 420 is very narrow compared to the range of the correlation function 400 in many applications. As a result, as described above, whenever the approximate location of the peak portion 420 is identified, any correlation function that is separated from the correlation function value point 402 in the peak portion 420 by a distance greater than the width 424 of the peak portion 420. It is also essentially useless to determine the correlation function value for the value point 402.
[0114]
In the first embodiment described above with reference to FIG. 3 and FIG. 5 and still another embodiment, the correlation function included in the sparse set of correlation function value points to be determined using this result Use the “binary” sequence of value points. This is one type of predetermined sequence for a sparse set of correlation function value points 402. The correlation function interval is determined by first determining the correlation function value of the correlation function value point 402 at each extreme offset position and at an offset position located approximately halfway between the extreme offset positions. Can be used to search. If none of these correlation function value points 402 are present in peak portion 420, additional correlation function value points 402 located approximately in the middle between each pair of adjacent predetermined correlation function value points. Can be determined. This process is repeated until a correlation function value point existing in the peak portion 420 is specified. Importantly, this iterative process need not continue after at least one such correlation function value point 402 is identified.
[0115]
Thus, in the first iteration, in the correlation function 400 having the first extreme value offset position at the offset position −L and the second extreme value offset position at the offset position + L (L is the image frame dimension). Correlation function values for correlation function value points 402 having offset values of -L, + L and 0, which are usually relevant) are determined. And in the second iteration, the correlation function values for the correlation function value points with offset values of -L / 2 and + L / 2 are determined. In a third iteration, correlation function values for correlation function value points 402 having offset values of −3L / 4, −L / 4, + L / 4, and + 3L / 4 are determined. This continues until the correlation function values for the entire sparse set of correlation function value points 402 are determined, or, more appropriately, until the location of the peak portion 420 is identified. Of course, during any particular iteration, if one of the correlation function value points 402 to be determined in that iteration is present in the peak portion 420, then from the correlation function value point 402 to the width 424 of the peak portion 420, None of the other correlation function value points 402 in that iteration separated by a large distance may be required to have their correlation function values determined.
[0116]
In this particular variation, whenever the approximate location of the peak portion 420 is identified using this binary search, the second stage is performed and the correlation function value points that may exist in the peak portion 420. A correlation function value for each of 402 is determined. Instead, as a variant of the second stage, only a single correlation function value point located within the peak portion is usually identified using this binary search technique, so in the second stage of this variant A sparse set having a regular interval of correlation function value points arranged around the correlation function value point 402 located in the peak part 420 may be determined so as to determine the location of the peak part 420 more precisely. .
[0117]
In the third stage, as described above with reference to the second stage described in the first embodiment, the farthest correlation function value point 402b in the peak portion 420 and the adjacent correlation function value Points 402a and 402c can be identified from this sparse set of correlation function value points determined in the second stage. Then, at least some of the correlation function value points that are adjacent to the furthest correlation function value point 402b and located between the correlation function value point 402a and the correlation function value point 402c are necessary to perform a particular interpolation technique. Specific correlation function value points 402 can be determined.
[0118]
In yet another embodiment of the sparse set technique described above in connection with FIGS. 4 and 5, rather than using a single sparse set, in the first stage, for example, from the width 424 of the peak portion 420 A first exemplary sparse set of correlation function value points with a larger spacing can also be used. If none of the correlation function value points of the sparse set having the large interval exists in the peak portion 420, the sparse set having the large interval between the correlation function value points 402 is offset by a predetermined amount in the second stage. be able to. Alternatively, a second sparse set with a smaller spacing can be used. Further, if the location of the peak portion 420 cannot be determined, subsequent iterations using sparse sets such as third, fourth, etc., with continuously smaller offsets or smaller intervals, until the location of the peak portion 420 is determined. It can be carried out.
[0119]
Once the location of the peak portion 420 has been determined, any subsequent sparse sets with smaller spacing can be excluded because they are the remainder of the correlation function value points of the current sparse set. Then, the final stage corresponding to the second stage described above in the first embodiment described with reference to FIGS. 4 and 5 is useful for determining the actual position of the correlation function peak 402. It may be performed to provide a correlation function value point 402. In particular, the above-described modified example is binary except that the location of the correlation function value point 402 in each sparse set is not precisely defined with respect to the extreme offset position as in the modified binary search technique. It may be essentially similar to a search technology variant.
[0120]
6 and 7 illustrate a second embodiment of a sparse set comparison technique for image correlation function value points according to the present invention. In particular, in the second embodiment illustrated in FIGS. 6 and 7, the inventor has shown that the correlation function of any particular correlation function value point 402 in a high spatial frequency image to which the system and method of the invention are particularly adapted. Even when determining the value, it is better than all pixels without effectively changing the functional relationship between the normalized background portion 410 and the normalized peak portion 420 of the correlation function 400. Noted that the decision can be made using a small number of pixels.
[0121]
That is, like the correlation function 400 shown in FIG. 4, the correlation function 500 shown in FIG. 7 includes a normal background portion 510 having a correlation function value point 502 including points 502a-502d, and this normal background portion. 510 has a correlation function value located within the range 512 that is generally smaller than the range of correlation function values included in the peak portion 520. Range 512 is defined by a maximum background value 514 and a minimum background value 516. Correlation function 500 similarly has a peak portion 520 consisting of a width 534 that is generally narrower than the region of correlation function 500. Except for the range of correlation function values that can be taken by the correlation function 500, the overall shape of the correlation function 500 is virtually indistinguishable from the shape of the correlation function 400. Therefore, in some examples of the second embodiment shown in FIG. 6, each pixel in each row M in the displacement image 310 is associated with a corresponding one in the reference image 300 to determine the correlation function value point 402. Rather than comparing with rows and pixels, only a few rows M and, for extreme values, only one row M is compared to determine the correlation function value for a particular correlation function value point 502.
[0122]
FIG. 8 illustrates a variety of different correlation functions 400, 500, 500 ′ obtained by using different amounts of pixels in the reference image 300 and the displacement image 310 when determining the correlation function values of the correlation function value points 402 and 502. And 500 ″. The correlation function 400, 500, 500 ′, 500 ″ shown in FIG. 8 contrasts with the multiplication correlation function shown in FIGS. ). In particular, as shown in FIG. 8, as the number of rows of pixels used to determine the correlation function value decreases stepwise in the correlation function 500, 500 ′, 500 ″, the average value of the background portion 510, And the difference between the average value in the background portion 510 and the extreme value of the correlation function value point 502 located in the peak portion 520 is reduced.
[0123]
At the same time, the noise in the background portion 510 increases, ie the range 512 between the corresponding maximum background value 514 and minimum background value 516. In this embodiment, the signal is the difference of the extreme value of the correlation function value point present in the peak portion 520 from the average value of the corresponding background portion 510. As the number of rows decreases, the noise increases and the signal-to-noise ratio decreases much faster because the difference between the extreme values of the peak portion 520 and the average value of the corresponding background portion 510 decreases. It can be said.
[0124]
However, as shown in FIG. 8, the relative width 524 of the peak portion 520 hardly changes when viewed from the point of pixel spacing. In general, the width 524 of the peak portion 520, ie, close to the range 512, but the offset difference between correlation function value points located outside the range 512 is substantially reduced rather than increased due to greater noise. To do. That is, the range 512 that is increased by the additional noise of the background portion 510 captures the correlation function value point 502 that should have been determined as a part of the peak portion 420 in the first embodiment with less noise. become.
[0125]
Any of the various techniques described above for determining the number of correlation function value points 402 to be included in the sparse set of correlation function value points 402 should be compared in the correlation function values of this second embodiment. A technique for limiting the number of image pixels may be combined. As a result, it is possible to further reduce the power required to determine the correlation function value of each correlation function value point 502 included in the sparse set of the correlation function value points 502 as well as the system resource amount and processing time. It becomes.
[0126]
For example, in various embodiments, only a small number of rows are compared, so that each comparison can be made quickly. However, since only a smaller number of rows than the entire image are used, the correlation function value obtained for each correlation function value point is the total number of rows of the second image of the first image for each such correlation function value point. The relationship is simply close to the correlation function value obtained from the comparison with the corresponding row. Nevertheless, the close correlation function value can still indicate the approximate location of the peak portion 520. Rarely, in some circumstances, very rarely, pixels are used to determine the correlation function value of the correlation function value point 502 in the sparse set of correlation function value points 502, so that the approximate location of the peak portion 520 is determined. The amount of system resources required is reduced and sometimes very reduced.
[0127]
FIG. 9 is a graph of a conventional correlation function 600 obtained by correlating the displacement image 310 and the reference image 300. Here, the displacement image 310 can be displaced in a two-dimensional direction with respect to the reference image 300. In particular, as shown in FIG. 9, the correlation function 600 develops in a two-dimensional direction as compared to the one-dimensional correlation functions shown in FIGS. In the conventional two-dimensional correlation function 600 shown in FIG. 9, a set in which the correlation function value points 602 are very dense (hereinafter referred to as “dense set”) is determined with respect to the conventional two-dimensional correlation function 600. The Therefore, the position of the peak portion 620 of the two-dimensional correlation function 600 and the position of the correlation function peak (in this case valley) 622 can be determined very accurately, but are often used in determining the dense set of the correlation function value point 602. This makes it difficult, if not impossible, to determine the correlation function 600 in real time, even if a high-speed data processor is used.
[0128]
Thus, as shown in FIG. 10, the sparse set of correlation function value points 606 selected from the set of all correlation function value points 602 of the correlation function 600 has been described above based on the one-dimensional correlation functions 400 and 500. If used by the first embodiment, the amount of system resources required to determine the two-dimensional sparse set of correlation function value points 606 is significantly reduced. As shown in FIG. 10, in one embodiment, a sparse set of correlation function value points 606 may be regularly arranged in a two-dimensional correlation function 600, such as a grid, thereby providing correlation function value points 602. Ensure that at least one of the sparse sets 606 is within the narrow peak portion 620. FIG. 10 clearly shows only a part of the grid of correlation function value points 606 that are sparsely spaced. Note that the sparse set 606 of the correlation function value points 602 may be arranged in the two-dimensional correlation function 600 by any method.
[0129]
In particular, the sparse set of correlation function value points 606 is searched in order as described above based on the modification of the multilevel search technique described in relation to the first embodiment. Can be broken down into various subsets. Similarly, in another embodiment, a two-dimensional binary search technique similar to the one-dimensional binary search technique described above can be used.
[0130]
Finally, as in the second embodiment described above, rather than comparing all pixels of the reference image and displacement image, only a subset of the pixels of the reference image and displacement image may be compared. . As a result, as described above in connection with the second embodiment, the amount of system resources required to determine each correlation function value is further significantly reduced.
[0131]
As explained above, once the correlation function values at each of the first or multiple stages of the sparse set of correlation function value points 606 are determined and analyzed, the position of the peak portion 620 of the two-dimensional correlation function 600 is once determined. Once determined, the entire set of correlation function value points to be used to determine the position of the correlation function peak using the techniques described in the 671 application is reached, and the sparseness of the correlation function value points is lower. One or more stages in the set can be determined. Of course, whenever the position of the peak portion of the two-dimensional correlation function is determined, the entire set of correlation function value points is determined using the techniques described in the 671 application to determine the position of the actual correlation function value peak. In some cases, it may be used as a single stage.
[0132]
In particular, since the sparse set of correlation function value points 606 used for specifying the position of the peak portion 620 of the two-dimensional correlation function 600 is sparsely distributed in the two-dimensional direction, the correlation function value points 602 in the total correlation function 600 are The ratio of the number of correlation function value points 606 included in the sparse set to the number is extremely small. Therefore, the system resources necessary for searching the two-dimensional correlation function 600 are the systems necessary for determining the correlation function of the sparse set of the correlation function value points 402 in the one-dimensional correlation function shown in FIGS. Compared to resource reduction, it can be significantly reduced.
[0133]
In the two-dimensional correlation function, the point 606 in the peak portion 620 corresponding to the first and third correlation function value points 402a and 402c described above is located on the opposite side of the farthest correlation function value point 606 in the peak portion 620. You may make it not. Thus, in the two-dimensional correlation function, in order to define a range of offset positions in which the first and third correlation function value points 606 are expanded in all directions from the farthest correlation function value point 606 in the two-dimensional correlation function. Can be used for Similarly, this same technique can be used to determine the range around the correlation function value point 402b in the one-dimensional offset phase. At least some of the correlation function value points 606 (or 402) within that range are then used to determine the offset position of the correlation function peak.
[0134]
FIG. 11 shows, in a first solution according to the present invention, an outline of a first embodiment of a method for determining a peak or valley position using a sparse set of image correlation function value point positions in a correlation function space. It is a flowchart to show. As shown in FIG. 11, the process starts in step S100 and proceeds to step S200, where a reference image is taken. In step S300, a displacement image is taken. The displacement image may be displaced by an unknown offset amount with respect to the reference image and superimposed on the reference image. Thereafter, the process proceeds to step S400.
[0135]
In step S400, the reference image and the displacement image are at a plurality of sparsely distributed offset positions, i.e., at an offset position corresponding to a sparse set of correlation function value points according to any of the previously described sparse set configurations or procedures. Compare. For example, in the first embodiment, in step S400, a sparse set of correlation function value points is predetermined or matches a predetermined order of correlation function value points to be determined. Thereafter, the process proceeds to step S500.
[0136]
In step S500, the correlation function value points in the sparse set of correlation function value points are analyzed to identify one or more correlation function value points of the sparse set located within the peak portion of the correlation function. As explained above, the correlation function value point of the sparse set located within the peak portion is the average value, the predetermined maximum value, or the predetermined correlation function value of the sparse set correlation function value point. It can be determined by comparing with a predetermined characteristic of a range of normal background parts, such as a minimum value. Whether this minimum or maximum value is used depends on the type of mathematical function used to obtain the correlation function value.
[0137]
Once the peak portion is determined in step S500, a high resolution set, such as a full set of correlation function value points, is obtained in at least one portion of the offset positions located within the determined peak portion in step S600. decide. That is, as described above, the entire portion corresponds to a number of adjacent offset positions that are separated by a pixel pitch. However, it can be said that it is not always necessary to determine all the offset positions existing in the peak portion. Next, in step S700, at least some correlation function values of the entire set of correlation function value points determined in step S600 are used to determine the actual displacement or offset between the reference image and the displacement image. . Any of the various techniques specified in the cited 671 application may be used in step S700. Thereafter, the process proceeds to step S800.
[0138]
In step S800, it is determined whether the process of the method should be terminated or whether additional displacement needs to be determined. If additional displacement needs to be determined, the process returns to step S300 and a subsequent displacement image is taken. On the other hand, if this is not necessary, the process proceeds to step S900, and the process of the present method ends.
[0139]
In many applications in position transducers such as the speckle image-based optical transducer 100 shown in FIG. 1, the displacement image captured in step S300 eventually exceeds the frame of the reference image captured in step S200. It may be displaced. In this case, a variety of techniques disclosed in US patent application Ser. No. 09 / 860,636 may be used between steps S800 and S300 to provide a new reference image. A displacement image obtained in advance may be used as the next reference image.
[0140]
FIG. 12 shows an outline of the second embodiment of the method for determining the peak or valley position using the sparse set of the image correlation function value point positions in the correlation function space, in the first solution according to the present invention. It is a flowchart to show. Steps S100 to S300 in FIGS. 12 and 11 are the same processing. However, with regard to steps S400 and S500, in the embodiment described with reference to FIG. 11, the correlation function values at all the correlation function value points of the sparse set are determined in step S400. In step S500, the determined total sparse correlation function value is analyzed. In contrast, in steps S400 and S500 shown in FIG. 12, the correlation function value of one sparse correlation function value can be determined in step S400, and in step S500, the correlation function of the next sparse correlation function value point. Before the value is determined in step S400, it is changed so that the determined current correlation function value can be analyzed. In this case, as shown in FIG. 12, step S550 is added after step S500 and before step S600, and whether or not the position of the peak portion is sufficiently specified in consideration of the current correlation function value point. Is determined. If the position of the peak portion is not sufficiently specified, the process returns to step S400, and the next correlation function value point of the sparse set is analyzed. If the position of the peak portion is sufficiently identified, the process proceeds to steps S600 and S700, and is determined to determine the correlation function peak offset position in step S600, similar to steps S600 and S700 of FIG. A high resolution set of power correlation function value points is determined, and the determined high resolution set is analyzed in step S700.
[0141]
Further, as various modifications of step S550, the first correlation function value point of the peak portion is found, or until a predetermined number of correlation function value points of the peak portion is found, or located within the peak width of the peak portion. Until it is determined from the correlation function value point of the sparse set to both sides of the first correlation function value point to be determined, such as located within the peak part, or until the width of the peak part 420 is measured You may make it return a process to step S400. Thereby, in the various modifications of step S550, a plurality of correlation function value points of a sparse set that can potentially be located in the peak portion are determined before the process proceeds to step S600. This is advantageous when determining specific correlation function value points to be included in the high resolution set of points determined and analyzed in step S600.
[0142]
The flowcharts described above with reference to FIGS. 11 and 12 are also modified to be combined with any of the various modifications described above with reference to FIGS. A number of examples of steps S400 and S500 may be considered with another sparse set of correlation function value points to be determined and analyzed in and / or as described above with reference to FIG. The comparison performed to determine the correlation function value in step s400 may be modified. Further, as can be easily understood by those skilled in the art, the method illustrated in FIGS. 11 and 12 and the additional modifications described above can be used without distinction in both one-dimensional offset and two-dimensional offset. Also good. There can be many combinations of such variations, but a specific flowchart corresponding to each such combination is not described here. However, in view of the description relating to FIGS. 5-10 set forth above, those skilled in the art will be aware of such variations of the embodiment of the method according to the present invention illustrated in FIGS. It seems easy to understand the specific steps to be performed in
[0143]
FIGS. 13 and 14 show two embodiments of “smeared” high spatial frequency images. Conventionally, in the image correlation technique, this smearing (hereinafter referred to as “smear”) distorts the image as compared with a clear image such as the image shown in FIG. 15, so such a smear image is very undesirable. It was thought. However, as used in the present invention, image smear occurs when the output obtained by the speed and exposure time to induce smear is not negligible compared to the pixel size of the image taken. In general, when the smear is appreciable, visible and / or measurable, as shown in FIGS. 13 and 14, it cannot be ignored. Smear has traditionally been believed to significantly distort the shape and position of the correlation function peak, thus preventing the determination of the actual displacement between the reference image and the displacement image. However, with respect to image features that are on the order of the pixel size of the image capture device, any image captured while the imaged object is moving at a significant speed relative to the image capture device will have some degree of Have a smear.
[0144]
In general, the smear amount S of the image feature compared to the still image is expressed by the following equation (4).
[0145]
[Expression 4]
Figure 0004303454
[0146]
Here, v is a velocity vector of a two-dimensional offset (v is a scalar velocity of a one-dimensional offset), t s Is the shutter time (or the strobe time of the light source).
[0147]
The smear amount S in an image can be determined from the peak portion of the autocorrelation function in the image. In addition, in order to determine the smear amount S, only a single image may be requested. The autocorrelation function R (p) for a given pixel displacement (p) in a one-dimensional displacement is expressed by the following equation (5).
[0148]
[Equation 5]
Figure 0004303454
[0149]
Similarly, an autocorrelation function R (p, q) for a given pixel displacement (p, q) in a two-dimensional displacement is expressed by the following equation (6).
[0150]
[Formula 6]
Figure 0004303454
[0151]
In practice, the autocorrelation peak of a given image is centered on the p = 0 displacement at the one-dimensional offset, and at the center of the p = q = 0 displacement at the two-dimensional offset. There is no need to determine R (p) or R (p, q) for all the offset values. Rather, R (p) or R (p, q) are those located within the one- or two-dimensional peak portion of the correlation function centered around the (0) or (0,0) offset position. Can be determined only for the offsets, or only for the sparse set of those offsets. In addition, it can be said that it is not necessary to use the entire image to determine R (p) or R (p, q). Rather, the sub-area of the entire image may be used to determine R (p) or R (p, q). As described above with reference to FIGS. 6 and 7, using fewer than the entire image substantially reduces the computation time.
FIG. 16 shows a contour map at the peak portion 620 of the two-dimensional correlation function 600 of the non-smear image and a contour map at the peak portion 620 ′ of the two-dimensional correlation function 600 ′ of the smear image. Of course, since the data points are separated by pixel units of the image array used to capture the non-smear and smear images, it can be said that these correlation functions are not actually continuous.
[0152]
Determine the smear vector (or the amount of scent smear at the one-dimensional offset) at the two-dimensional transformation offset without calculating all of the correlation function value points located within the peak portion of the correlation function and without using all of the array pixels. In one embodiment of the fast technique according to the invention for the purpose of determining the correlation function along the column direction (p), one row N x And use one column M to determine the correlation function along the row direction (q) y Is used. That is, row N x Correlates to itself at various pixel displacements along the column direction (p), and column M y Correlates to itself in displacement along the column direction row direction (q). As a result of the determination of this sparse set of correlation function value points, R (p, q) along the p and q directions is effectively calculated, as shown by the correlation function value point 608 in FIG. However, in practice it may be desirable to use multiple rows N and / or multiple columns M to improve the signal to noise ratio at any given correlation function value point 608 of FIG. In general, from 1 to 5 such rows N or columns M can be reasonably used for image features on the order of pixel size.
[0153]
Whenever correlation function value points 608 along the p and q directions are determined, the widths 624p 'and 624q' of the peak portion 620 'can be determined based on the values of these correlation function value points 608. . Thereafter, smear in any direction may be determined based on the vector combination of the widths 624p ′ and 624q ′ of the peak portions 620 ′ along the p and q directions, respectively.
[0154]
The direction of the maximum length vector combination of the widths 624p ′ and 624q ′ of the peak portion 620 ′ may represent the direction of motion that occurs when the smear image is captured, that is, the direction of the smear vector v. Accordingly, the orthogonal direction, or the direction of the minimum length vector combination of the widths 624p ′ and 624q ′ of the peak portion 620 ′, is a non-relative direction of motion. Thus, the difference between these two orthogonal vector lengths corresponds to the actual smear amount.
[0155]
The above analysis also applies to a one-dimensional offset imaged by a two-dimensional array. However, in applications where the offset is always along a defined array axis, the minimum length combination vector may always be along one array direction. And the minimum length combination vector is often a known quantity. Thus, for example, in a limited motion to move the image along the p direction, only the correlation function value points for the offset along the p direction are determined. The smear amount is then determined based on the motion dependent width 424 of the peak 420 of the correlation function along the p direction and the known minimum vector length along the q direction.
[0156]
Once the smear vector v is determined, a rough relative position of the displacement image 310 relative to the smear reference image 300 can be predicted, assuming that a function of distance versus smear degree is available. This function of distance vs. smear degree is expressed as a smear relationship S = v · t s Alternatively, measurement or prediction may be performed based on a known elapsed time between the acquisition of the smear reference image 300 and the acquisition of the displacement image 310.
[0157]
In this technique, it may be assumed that the acceleration during and after the smear image to be analyzed is taken is not too great. That is, this technique reduces the value when a large acceleration occurs between the acquisition of the smear reference image and the acquisition of the displacement image. However, rather than performing exactly the same analysis on only one of the smear reference image or the displacement image, both the smear reference image and the displacement image are subjected to exactly the same analysis, and then the smear results from the reference image and the displacement image are obtained. Can be determined at large accelerations, or at least partially adjusted.
[0158]
However, as long as the smear vector v at the one- or two-dimensional offset determined by the above description indicates the line direction, the smear vector is actually along the line even if the line where the motion has occurred is displayed. It can be said that it does not indicate in which direction the movement has occurred. Thus, using the smear magnitude (at a one-dimensional offset) or the smear magnitude (at a two-dimensional offset) and the line direction, this results in a peak portion 420 of the one- or two-dimensional correlation functions 400 and 600. Alternatively, two candidate or potential locations of 620 can be determined approximately, respectively. Retrieving the correlation function peak knowing the approximate candidate or potential location and determining the correlation function value of the correlation function value point away from the approximate candidate or potential location of the correlation function peak Therefore, it is possible to avoid the peak, and therefore, it is possible to find the peak with a small number of processes.
[0159]
Alternatively, the displacement determined in the previous displacement determination may be used to select the smear direction polarity, thereby searching only a single approximate position of the peak portion 420 or 620. It will be necessary. That is, assuming that the acceleration following the previous displacement determination is not too great, the direction of the displacement may be used to remove one of the two candidate or potential positions.
[0160]
Thus, once the approximate location of the peak portion 420 or 620 is identified using the smear amount and / or direction, the correlation function value points 402 or 606 that exist around the roughly determined correlation function peak offset location. A limited range of correlation function value points 402 or 606 that contain を may be determined and analyzed. In various applications, the smear procedure described above may be used to separate the roughly determined correlation function peak offset position with sufficient accuracy so that there is not much utility when further applying the sparse search procedure described above. Good. In such a case, all correlation function value points 402 or 606 present in a limited range around the roughly determined correlation function peak are analyzed as in the 671 application. Since only the correlation function value points that are likely to be used in determining the actual offset position are determined by the various techniques disclosed in the '671 application, the system resources required to determine the offset position are the correlation function 400. Or significantly reduced compared to having to search all 600 correlation spaces.
[0161]
However, in other applications, the smear procedure specified above may cause the roughly determined correlation function peak offset position to be separated more roughly, and the limited range may be significantly increased. May be. Also, if the smear cannot be identified, the limited range must be set to the maximum value. In that case, the above-described smear technique is combined with any of the various embodiments and / or the above-described modification of the sparse set technique of the correlation function value points, and the amount of system resources necessary to determine the offset position is calculated. It may be further reduced. That is, as explained above, the smear magnitude or smear vector only roughly determines the position of the correlation function peak and the peak portion 420 or 620 of the one-dimensional or two-dimensional correlation functions 400 and 600, respectively. Thus, the information about the approximate location of the peak portion 420 or 620 provided by the smear magnitude or smear vector, respectively, can be used to dynamically determine the sparse set of correlation function value points 402 or 606. This determines the approximate position of the peak portion 420 or 620 and the correlation peak 422 or 622 with higher precision and / or resolution, respectively.
[0162]
Thereafter, as described above, the sparse set of correlation function values 402 or 606 and the surrounding correlation function value points 402 or 620 located within the peak portion 420 or 620 around the farthest correlation function value points 402b or 606b. The most distant correlation function value point 402b or 606b at 606 is determined. Any of the various techniques described above for determining the full set of correlation function value points useful for the technique described in the 671 application may then be used. In this case, the use of this three-stage technology combining smear technology and sparse set technology requires much less system resources.
[0163]
FIG. 18 is a block diagram showing in detail an embodiment of the signal generation processing circuit 200 shown in FIG. As shown in FIG. 18, the signal generation processing circuit 200 includes a controller 210, a light source driver 220, a light detection interface 225, a memory 230, a comparison circuit 240, a comparison result accumulator 245, an interpolation circuit 260, a position accumulator 270, a display driver 201, An optional input interface 204, a clock 208, an offset position selector 275, and a correlation function analyzer 280 are included.
[0164]
The controller 210 is connected to the light source driver 220 by the signal line 211, to the light detection interface 225 by the signal line 212, and to the memory 230 by the signal line 213. Similarly, the controller 210 is connected to the comparison circuit 240, the comparison result accumulator 245, the interpolation circuit 260, the position accumulator 270, and the offset position selector 275 by signal lines 214-218, respectively. Finally, the controller 210 is connected to the display driver 201 via the control line 202 and, if equipped, to the input interface 204 via the signal line 205. The memory 230 includes a reference image unit 232, a current image unit 234, a correlation unit 236, a correlation offset position setting unit 238, and a second stage correlation unit 239.
[0165]
The operation of the signal generation processing circuit 200 having such a configuration will be described. The controller 210 outputs a control signal to the light source driver 220 via the signal line 211. In response to this, the light source driver 220 outputs a drive signal to the light source 130 via the signal line 132. Subsequently, the controller 210 outputs a control signal to the light detection interface 225 and the memory 230 via the signal lines 212 and 213, and thereby from the light detector 160 corresponding to each of the image elements 162 via the signal line 164. The received signal portion is stored in the current image portion 234. Note that the image values from the individual image elements 162 are stored in a two-dimensional array in the current image portion 234 corresponding to the position of the individual image element 162 in the array 166.
[0166]
Once the image is stored in the reference image portion 232, the controller 210 outputs a control signal for driving the light source 130 to the light source driver 220 via the signal line 311 for an appropriate fixed time or control. Wait for the specified time. At that time, the light detection interface 225 and the memory 230 are controlled by signals from the signal lines 212 and 213, and the obtained image is stored in the current image unit 234.
[0167]
Next, the offset position selector 275 accesses the correlation offset position setting unit 238 under the control of the controller 210. The correlation offset position set unit 238 is a sparse set of correlation function value points to be used during the first stage to roughly determine the peak position 420 or 620 of the one-dimensional or two-dimensional correlation function 400 or 600. The data which prescribes is stored. The sparse set of the correlation function value points 402 or 606 stored in the correlation offset position set unit 238 is determined in advance as described above. Instead, the sparse set of correlation function value points 402 or 606 can be determined dynamically, or as described above, the ordered list of correlation function value points to be determined in order is determined dynamically. You may make it.
[0168]
Regardless of how the sparse set of correlation function value points 402 or 606 is determined, the offset position selector 275 is sparse of the correlation function value points stored in the correlation offset position set section 238 under the control of the controller 210. A first correlation function value point is selected from the set. The offset position selector 275 then uses p (in the one-dimensional correlation function 400) to be used by the comparison circuit 240 when comparing the displacement image currently stored in the image portion 234 with the reference image stored in the reference image portion 232. A signal indicating the dimension offset or the p and q dimension offsets (in the two-dimensional correlation function 600) is output to the comparison circuit 240 via the signal line 277.
[0169]
Thereafter, the controller 210 outputs a signal to the comparison circuit 240 via the signal line 215. In response, the comparison circuit 240 inputs the image value of a particular pixel from the reference image portion 232 via the signal line 242, and the correlation function value point 402 with the offset value received from the offset position selector 275. Alternatively, the image value of the corresponding pixel is input from the current image portion 234 via the signal line 242 based on the offset value in the current one of the 606 sparse sets. At this time, the comparison circuit 240 applies a correlation algorithm to obtain a comparison result. In order to compare the reference image stored in the reference image portion 232 and the current image stored in the current image portion 234 on a pixel-by-pixel basis based on the current offset, the comparison circuit 240 can be any known or later developed. Appropriate correlation techniques may be used. The comparison circuit 240 outputs the comparison result at the current correlation offset to the comparison result accumulator 245 via the signal line 248.
[0170]
The comparison circuit 240 once extracts the image values in at least some of the image elements 162 from the reference image portion 232, compares them with the corresponding image values currently stored in the image portion 234, and applies the correlation technique for comparison. When the result is output to the comparison result accumulator 245, the value stored in the comparison result accumulator 245 is a correlation value corresponding to the current value received from the offset position selector 275, and is a sparse set of the correlation function value points 402 or 606. The correlation value in the present one is defined in a predetermined unit. Then, the controller 210 outputs a signal to the comparison result accumulator 245 via the signal line 214 and to the memory 230 via the signal line 213. As a result, the correlation algorithm result stored in the comparison result accumulator 245 is the current value received from the offset position selector 275 and corresponds to the current value of the current one of the sparse sets of the correlation function value points 402 or 606. Is output to and stored in the correlation unit 236 of the memory 230. Thereafter, the controller 210 outputs a signal to the signal line 214 to clear the correlation result stored in the correlation unit 236.
[0171]
The controller 210 then outputs a signal to the signal line 214 to clear the comparison result accumulator 245. Under the control of the controller 210, all comparisons of all correlation function value points in the sparse set of correlation function value points stored in the correlation offset position set unit 238 are performed by the comparison circuit 240, and the result is compared with the comparison result accumulator 245. Is stored in the correlation unit 236, the controller 210 outputs a control signal to the correlation function analyzer 280 via the signal line 219.
[0172]
The correlation function analyzer 280 analyzes the correlation function value stored in the correlation unit 236 under the control of the controller 210, and the correlation function value point located in the peak portion 420 or 620 of the correlation function 400 or 600, respectively. Correlation function value points 402 or 606 in a sparse set of 402 or 602 are identified. Then, the correlation function analyzer 280 is the farthest to be stored in the second stage correlator 239 at a number of correlation function value points 402 or 606 located respectively within the peak portion 420 or 620 under the control of the controller 210. A number of correlation function value points 402 or 606 located at least in part of the peak portions 420 or 620 surrounding the correlation function value points 402b or 606b are output. Then, the controller 210 outputs a signal to the signal line 214 to clear the correlation result stored in the correlation unit 236.
[0173]
Next, under the control of the controller 210, the comparison circuit 240 determines the correlation value at each of the correlation function value points 402 or 606 stored in the second stage correlation unit 239. Under the control of the controller 210, all comparisons for all correlation function value points 402 or 606 stored in the second stage correlation unit 239 are performed by the comparison circuit 240, and the result is accumulated by the comparison result accumulator 245. When stored in the unit 236, the controller 210 outputs a control signal to the interpolation circuit 260 via the signal line 216.
[0174]
In response to this, the interpolation circuit 260 inputs the correlation result stored in the correlation unit 236 via the signal line 242, and identifies the correlation value that matches the peak or valley of the correlation function, and the peak of the correlation function / Interpolate between the identified correlation function value points around the valley to determine the peak offset value or image displacement value with sub-pixel resolution. The interpolation circuit 260 then outputs the determined subpixel displacement estimated value to the position accumulator 270 via the signal line 262 under the control of the signal sent from the controller 210 via the signal line 216. The position accumulator 270 adds the displacement estimated value to the displacement value in the current reference image stored in the reference image unit 232 under the control of the signal sent from the controller 210 via the signal line 217. The position accumulator 270 then outputs the updated position displacement value to the controller 210 via the signal line 272.
[0175]
In response to this, the controller 210 may output the updated position displacement value to the display driver 201 via the signal line 202 if provided. The display driver 201 outputs a drive signal to the display device 107 via the signal line 203 to display the current displacement value.
[0176]
If provided, one or more signal lines 205 provide an interface between the operator or cooperating system and the controller 210. If provided, the input interface 204 may temporarily store or modify the input signal or command and send an appropriate signal to the controller 210.
[0177]
The controller 210 controls the offset position selector 275 to select a particular sparse set of correlation function value points from a plurality of sparse sets stored in the correlation offset position set unit 238 to provide multi-stage rather than two stages. This analysis technique may be made executable. In addition, the controller 210 performs the comparison so as to compare only a subset of the pixels of the reference image and the displacement image stored in the reference image portion 232 and the current image portion 234 as described above with reference to FIGS. The circuit 240 may be controlled.
[0178]
FIG. 19 is a block diagram showing in detail the second embodiment of the signal generation processing circuit 200 shown in FIG. As shown in FIG. 19, the signal generation processing circuit 200 is substantially the same as the first embodiment of the signal generation processing circuit 200 shown in FIG. 18, but in this second embodiment, an offset position selector 275 is provided. And a smear amount analyzer 290 is added. In the operation, unlike the first embodiment of the signal generation processing circuit shown in FIG. 18, the controller 210 operates the light source driver 220 and / or the photodetector 160 to generate a smear image, and this image It is stored in the reference image unit 232.
[0179]
The controller 210 then waits for a suitable fixed or controlled time to obtain a displacement image to be stored in the current image portion 234, but before that time elapses, the controller 210 passes the signal line 215 to the comparison circuit 240. The signal is output to generate data necessary for determining the autocorrelation function of the smear image stored in the reference image unit 232. In general, the comparison circuit 240 and the comparison result accumulator 245 are controlled by the controller 210 as described above, and the correlation function value of the correlation function value point 608 shown in FIG. 17 in the two-dimensional offset is the correlation function in the one-dimensional offset. Correlation function values for the corresponding set of offset points 402 are generated, accumulated, and stored in the correlator 236.
[0180]
Then, under the control of the controller 210, the smear amount analyzer 290 analyzes the correlation function value point stored in the correlation unit 236, and the one-dimensional width 424 of the peak portion 420 or the two-dimensional width 624p of the two-dimensional peak portion 620. And 624q. The smear amount analyzer 290 then determines the smear amount from the determined one-dimensional width 424 or the two-dimensional widths 624p and 624q of the peak portion 420 or 620, respectively. The smear amount analyzer 290 then selects one of the peak portions 420 or 620 of the correlation function to be determined from a comparison between the smear image stored in the reference image portion 232 and the displacement image that has been captured and stored in the current image portion 234. One or two approximate positions are determined.
[0181]
Based on the approximate position of the peak portion 420 or 620 determined by the smear amount analyzer 290, a set of correlation function value points stored in the correlation offset position setting unit 238 and / or the second stage correlation unit 239 is added to the smear. Determined by the quantity analyzer 290. Thereafter, under the control of the controller 210, the determined set of correlation function value points is stored in one or both of the correlation offset position setting unit 238 and / or the second stage correlation unit 239.
[0182]
Then, after an appropriate constant or controlled time, the controller 210 obtains a displacement image and stores it in the current image portion 234. As described above, the controller 210 controls the comparison circuit 240, the comparison result accumulator 245, and the interpolation circuit 260 based on the set of correlation function value points stored in the second stage correlation unit 239, so Determine the offset position.
[0183]
Of course, the first and second embodiments of the signal generation processing circuit 200 shown in FIGS. 18 and 19 and described above may be combined. In this case, the correlation function to be used by the comparison circuit 240 and stored in the second stage correlator 239 after the smear quantity analyzer 290 determines one or two possible approximate positions of the peak portions 420 or 620. Rather than storing the entire set of value points, the smear quantity analyzer 290 dynamically calculates at least one sparse set of correlation function value points 402 or 606 based on the approximate location of the peak portion 420 or 620. And stored in the correlation offset position setting unit 238 under the control of the controller 210. After the displacement image is taken and stored in the current image portion 234, as described above in connection with the first embodiment of the signal generation processing circuit 200, the controller 210 is the signal generation processing circuit shown in FIG. As described above in connection with the first embodiment of 200, the comparison circuit 240 is operated based on at least one sparse set of correlation function value points 402 or 606.
[0184]
The signal generation processing circuit 200 is implemented in various embodiments by using a programmed microprocessor or microcontroller and peripheral integrated circuit elements. Further, the signal generation processing circuit 200 includes a programmed general purpose computer, a special purpose computer, an ASIC or other integrated circuit, a digital signal processor, a wired electronic or logic circuit such as a discrete component circuit, PLD, PLA, It may be implemented by using a programmable logic device such as FPGA or PAL, or the like. In general, any device with a finite state machine that can implement one or more of the above methods can be used to implement the signal generation processing circuit 200.
[0185]
18 and 19, the memory 230 of the signal generation processing circuit 200 may be configured using an appropriate combination of a changeable volatile or non-volatile memory, or an unchangeable or fixed memory. . Whether it is volatile or non-volatile, memory that can be changed can be static or dynamic RAM, floppy disk and disk drive, writable or rewritable optical disk and disk drive, hard drive, flash memory, It may be configured using one or more of memory sticks or the like. Similarly, the non-modifiable or fixed memory may be one of an optical ROM disk and associated disk drive, such as ROM, PROM, EPROM, EEPROM, CD-ROM or DVD-ROM disk, or the like or You may comprise using more.
[0186]
Thus, each of the controller 210 and various other circuits 220, 225, and 240-290 of the signal generation processing circuit 200 may be configured as part of a suitably programmed general purpose computer, macro processor, or microprocessor. . Alternatively, each of the controller 210 and other circuits 220, 225, and 240-290 shown in FIGS. 18 and 19 can be implemented as physically separate hardware circuits within the ASIC, or FPGA, PDL, PLA, or PAL. Or may be configured using discrete logic elements or discrete circuit elements. The particular form each of the circuits 220, 225 and 240-290 of the signal generation processing circuit 200 is within design choices and will be apparent and predictable to those skilled in the art.
[0187]
While the invention has been described in connection with the embodiments outlined above, it will be apparent that many alternatives, modifications and variations will be apparent to those skilled in the art. Therefore, the embodiment of the present invention clarified above is illustrative, and the present invention is not limited to this. Various changes can be made without departing from the spirit and scope of the invention.
[0188]
【The invention's effect】
As described in detail above, the present invention provides a system and method that can accurately determine the position of a correlation peak or valley.
[0189]
The present invention also provides a system and method that can determine the position of a correlation peak or valley, while using less system resources than conventional methods and techniques.
[0190]
The present invention also provides a system and method that can determine the correlation peak or valley position accurately, although the correlation function is sparsely determined.
[0191]
The present invention also provides a system and method that can determine the position of a correlation peak or valley in a two-dimensional correlation function using a grid of determined correlation values.
[0192]
The present invention also provides a system and method that can accurately determine the position of correlation peaks or valleys in a pair of high spatial frequency images.
[0193]
Also according to the present invention, there is provided a system and method that can accurately determine the position of a correlation peak or valley in an image having correlation function characteristics that are substantially flat or regular in a region away from the correlation peak or valley. Provided.
[0194]
The present invention also provides a system and method that can accurately determine the position of a correlation peak or valley despite the sparse determination of the correlation function in the subset of images to be correlated.
[0195]
The present invention also provides a system and method that can identify a portion of a correlation function where a correlation peak or valley should exist without performing correlation between the first and second images. The
[0196]
The present invention also provides a system and method that can estimate the magnitude and / or direction of motion from a single image taken by an image correlation system.
[0197]
In addition, according to the present invention, there is provided a system and a method capable of improving the accuracy of the estimated displacement distance, that is, the offset and / or the direction, from the analysis of only the captured second image.
[0198]
Also according to the present invention, a system that can use the determined and / or refined displacement distance and / or direction values to identify a portion of the correlation function where a correlation peak is likely to exist, and A method is provided.
[0199]
According to the invention, it is also possible to determine the magnitude and / or direction of relative movement between the surface to be imaged and the imaging system based on the autocorrelation of the first and second images. Possible systems and methods are provided.
[0200]
The present invention also provides systems and methods that can determine the magnitude and / or direction of relative motion based on at least one characteristic of the autocorrelation peak.
[0201]
The present invention also provides systems and methods that are particularly suitable for measuring surface displacement using speckle images.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a speckle image correlation optical position transducer.
FIG. 2 is a diagram illustrating a relationship between a first image and a current second image and portions of the first and second images used for generating a correlation value in a conventional comparison technique.
FIG. 3 is a graph showing the results of comparing the first and second images by using a conventional comparison technique and by using a conventional multiplication correlation function when the image is offset by successive pixel displacements. It is.
FIG. 4 shows a relationship between a first image and a second image and a correlation value in the first embodiment of the technique for comparing sparse sets of image correlation function value points according to the present invention; It is a figure which shows the part of the 1st and 2nd image used for.
FIG. 5 compares the first and second images using the first embodiment of the technique for comparing sparse sets of image correlation function value points shown in FIG. 4 and using a conventional multiplicative correlation function; It is a graph which shows the result.
FIG. 6 shows the relationship between the first image and the second image and the correlation value in the second embodiment of the technique for comparing sparse sets of image correlation function value points according to the present invention; It is a figure which shows the part of the 1st and 2nd image used.
FIG. 7 compares the first and second images using a second embodiment of the technique for comparing sparse sets of image correlation function value points shown in FIG. 6 and using a conventional multiplicative correlation function. It is a graph which shows the result.
FIG. 8 is a graph showing the associated shape of the correlation function at different numbers of pixels used in the correlation function.
FIG. 9 shows that when the image is offset by successive pixel displacements in two dimensions, the first and second images using conventional comparison techniques and using a conventional difference correlation function. It is a graph which shows the result of having compared.
FIG. 10 illustrates a first embodiment of a technique for comparing sparse sets of image correlation function value points according to the present invention when an image is offset by successive pixel displacements in two dimensions; It is a graph which shows the result of having compared the 1st and 2nd image using a differential correlation function.
FIG. 11 shows an outline of a first embodiment of a method for determining a peak or valley position using a sparse set of image correlation function value point positions in a correlation function space in a first solution according to the present invention. It is a flowchart to show.
FIG. 12 shows an outline of a second embodiment of a method for determining a peak or valley position using a sparse set of image correlation function value point positions in a correlation function space in a first solution according to the present invention; It is a flowchart to show.
FIG. 13 shows a first embodiment of a smear high spatial frequency image in which the surface to be imaged moves relative to the imaging system along a single dimension.
FIG. 14 shows a second embodiment of a smear high spatial frequency image in which the surface to be imaged moves relative to the imaging system in two dimensions.
FIG. 15 is a diagram showing an embodiment of a non-smear high spatial frequency image.
FIG. 16 is a contour map of a two-dimensional autocorrelation function in a non-smear image and a smear image.
FIG. 17 is a diagram illustrating correlation function value points used for determining a smear amount in a two-dimensional autocorrelation function.
FIG. 18 is a block diagram schematically illustrating a first embodiment of a signal generation processing circuit in an image-based optical position transducer suitable for providing an image and determining an image displacement according to the present invention.
FIG. 19 is a block diagram schematically illustrating a second embodiment of a signal generation processing circuit in an image-based optical position transducer suitable for providing an image and determining an image displacement according to the present invention.
[Explanation of symbols]
100 correlation image based optical position transducer
104 Optical diffusion rough surface
110 Measuring axis
126 Read head
130 Light source
132 signal lines
134 Light beam
136 light
140 lenses
142 light
144 Optical axis
150 pinhole aperture plate
152 Pinhole opening
154 light
160 photodetectors
162 Image element
164 signal line
166 array
200 Signal generation processing circuit
300 reference image
302 pixels
304 single dimension
310 Displacement image
312 pixels
320 multiple lines
330 Multiple columns
400 correlation function
402 multiple correlation function value points
404 distance
410 Normal background part
412 range
414 Maximum background value
416 Minimum background value
420 Peak part
424 width

Claims (4)

第1の画像を第2の画像と比較することによって生成された相関関数で、ピーク部分及びピーク部分以外のバックグラウンド部分をもつ相関関数のピーク位置を決定する方法において、
前記第1の画像を第2の画像と比較して、前記相関関数のうちバックグランド部分に配置された相関関数値ポイントのセットにおける相関関数値を決定する比較ステップと、
前記相関関数値を解析し、予め設定されたバックグラウンド部分を特徴付ける平均相関関数値、最大相関関数値、最小相関関数値、最大傾斜値、最小傾斜値のうち少なくとも1つと比較して前記ピーク部分内に存在する相関関数値ポイントを特定すると共に、前記バックグランド部分よりもさらに密に相関関数値を求め、これらの相関関数値に基づいてピーク位置を決定し、ピーク部分に属する1つの値とバックグランド部分に属する1つの値を比較する解析ステップと
を有することを特徴とする方法。
In a method for determining a peak position of a correlation function having a peak portion and a background portion other than the peak portion in a correlation function generated by comparing a first image with a second image,
A comparison step of comparing the first image with a second image to determine a correlation function value in a set of correlation function value points located in a background portion of the correlation function;
Analyzing the correlation function value and comparing the peak portion with at least one of an average correlation function value, a maximum correlation function value, a minimum correlation function value, a maximum slope value, and a minimum slope value characterizing a preset background portion A correlation function value point existing within the background portion, a correlation function value is obtained more densely than the background portion, a peak position is determined based on these correlation function values, and one value belonging to the peak portion is determined. An analysis step of comparing one value belonging to the background portion.
前記バックグランド部分に配置された相関関数値ポイントのセットは、前記第1の画像及び第2の画像の間が多数の疎らにオフセットされた位置における相関関数値ポイントのセット、前記第1の画像及び第2の画像の間が連続した所定距離だけオフセットされた位置における相関関数値ポイントのセット、前記第1の画像及び第2の画像の間が多数の疎らにオフセットされた位置の1つ以上スキップした位置における相関関数値ポイントのセット、及び前記第1の画像及び第2の画像の間が連続した所定距離だけオフセットされた位置の1つ以上スキップした位置における相関関数値ポイントのセットのうちの1つであり
且つ、前記相関関数の前記ピーク部分は幅を有し、
前記バックグランド部分に配置された相関関数値ポイントのセットにおける前記相関関数値ポイントは、前記相関関数の前記ピーク部分の前記幅よりも小さい距離だけ離れて位置することを特徴とする請求項1記載の方法。
The background portion arranged set of correlation function value points were, the first image and a set of correlation function value points in a number of sparsely offset position between the second image, the first image And a set of correlation function value points at a position offset by a predetermined distance between the second image and one or more of a plurality of sparsely offset positions between the first image and the second image. A set of correlation function value points at a skipped position , and a set of correlation function value points at a position where one or more skipped positions are offset by a predetermined distance between the first image and the second image. One of the
And the peak portion of the correlation function has a width;
The correlation function value point in the set of correlation function value points arranged in the background portion is located at a distance smaller than the width of the peak portion of the correlation function. the method of.
前記第1の画像を前記第2の画像と比較して、前記ピーク部分内に存在する前記少なくとも1つの相関関数値ポイントの付近における前記相関関数の、密に配置された相関関数値ポイントの更なるセットであって、前記ピーク部分の少なくとも1つの領域内に密に配置された相関関数値ポイントの更なるセットにおける複数の付加的な相関関数値を決定するステップと、
前記付加的な相関関数値のうち少なくもいくつかに基づいて前記相関関数の前記ピーク位置を決定するステップと
を更に有することを特徴とする請求項1記載の方法。
Comparing the first image with the second image, the correlation function value points of the correlation function in the vicinity of the at least one correlation function value point present in the peak portion are updated. Determining a plurality of additional correlation function values in a further set of correlation function value points densely arranged in at least one region of the peak portion;
The method of claim 1, further comprising: determining the peak position of the correlation function based on at least some of the additional correlation function values.
前記比較ステップは、
第1の反復処理で、少なくとも1つのバックグランド部分に配置された相関関数値ポイントのセットにおける第1の少なくとも1つの相関関数値を決定し、前記第1の反復処理における前記第1の少なくとも1つの相関関数値に基づき繰り返しの計算によって求めた値のうち直前の計算によって求めた値を解析して、対応する相関関数値ポイントが前記ピーク部分内に存在するか否かを決定する決定及び解析ステップと、
前記決定及び解析ステップにおいて、前記相関関数値ポイントが前記ピーク部分内に存在しないことが決定された場合は、前記決定及び解析ステップを追加の反復処理で繰り返すステップと
を有することを特徴とする請求項1記載の方法。
The comparison step includes
In a first iteration, a first at least one correlation function value in a set of correlation function value points located in at least one background portion is determined, and the first at least one in the first iteration. Determination and analysis for determining whether a corresponding correlation function value point exists in the peak portion by analyzing a value obtained by the previous calculation among values obtained by repeated calculation based on two correlation function values Steps,
The step of determining and analyzing includes the step of repeating the determination and analysis step by an additional iteration process when it is determined that the correlation function value point does not exist in the peak portion. Item 2. The method according to Item 1.
JP2002228349A 2001-08-06 2002-08-06 Correlation function peak position determination method Expired - Fee Related JP4303454B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US09/921,711 US6996291B2 (en) 2001-08-06 2001-08-06 Systems and methods for correlating images in an image correlation system with reduced computational loads
US09/921,889 US6990254B2 (en) 2001-08-06 2001-08-06 Systems and methods for correlating images in an image correlation system with reduced computational loads
US09/921,889 2001-08-06
US09/921,711 2001-08-06

Publications (2)

Publication Number Publication Date
JP2003148918A JP2003148918A (en) 2003-05-21
JP4303454B2 true JP4303454B2 (en) 2009-07-29

Family

ID=27129826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002228349A Expired - Fee Related JP4303454B2 (en) 2001-08-06 2002-08-06 Correlation function peak position determination method

Country Status (3)

Country Link
JP (1) JP4303454B2 (en)
DE (1) DE10236016A1 (en)
GB (1) GB2383411B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7400415B2 (en) * 2005-03-15 2008-07-15 Mitutoyo Corporation Operator interface apparatus and method for displacement transducer with selectable detector area
JP2008058182A (en) * 2006-08-31 2008-03-13 Mitsutoyo Corp Determination device for detection possibility of displacement quantity, its method, and displacement detector
JP5156972B2 (en) 2009-07-07 2013-03-06 Smc株式会社 Position measuring apparatus and position measuring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0254644A3 (en) * 1986-07-22 1990-07-18 Schlumberger Technologies, Inc. Mask alignment and measurement of critical dimensions in integrated circuits
US4967093A (en) * 1988-06-22 1990-10-30 Hamamatsu Photonics Kabushiki Kaisha Deformation measuring method and device using cross-correlation function between speckle patterns with reference data renewal
GB2222499A (en) * 1988-09-05 1990-03-07 Philips Electronic Associated Picture motion measurement

Also Published As

Publication number Publication date
GB2383411B (en) 2005-11-09
GB0218142D0 (en) 2002-09-11
JP2003148918A (en) 2003-05-21
GB2383411A (en) 2003-06-25
DE10236016A1 (en) 2003-02-27

Similar Documents

Publication Publication Date Title
US6996291B2 (en) Systems and methods for correlating images in an image correlation system with reduced computational loads
US6990254B2 (en) Systems and methods for correlating images in an image correlation system with reduced computational loads
US6873422B2 (en) Systems and methods for high-accuracy displacement determination in a correlation based position transducer
JP4125541B2 (en) Displacement measuring method, displacement measuring system and recording medium
KR101264955B1 (en) Method and system for object reconstruction
JP4463612B2 (en) Two-dimensional absolute position detection device and two-dimensional absolute position detection method
US7885480B2 (en) Correlation peak finding method for image correlation displacement sensing
US9063283B2 (en) Pattern generation using a diffraction pattern that is a spatial fourier transform of a random pattern
EP1322108B1 (en) Image creating device and image creating method
US6549288B1 (en) Structured-light, triangulation-based three-dimensional digitizer
JP4392377B2 (en) Optical device that measures the distance between the device and the surface
EP3019117B1 (en) Video-based auto-capture for dental surface imaging apparatus
JP2696044B2 (en) Focus detection method, non-contact displacement measuring method and apparatus using the same
CN111083365B (en) Method and device for rapidly detecting optimal focal plane position
US20080031513A1 (en) Method and system for high resolution, ultra fast 3-D imaging
JP2002013948A (en) Speckle image correlated position transducer
JP2004053606A (en) Apparatus and method for measuring absolute two-dimensional location
JP4077754B2 (en) 3D shape measuring device
JP4286657B2 (en) Method for measuring line and space pattern using scanning electron microscope
US7302109B2 (en) Method and system for image processing for structured light profiling of a part
JP2004317495A (en) Method and instrument for measuring noncontactly three-dimensional shape
JP4303454B2 (en) Correlation function peak position determination method
JP6335809B2 (en) Stripe pattern image acquisition device, stripe pattern image acquisition method, three-dimensional position specifying device, three-dimensional position specifying method, and program
US20060045313A1 (en) Displacement measurements using phase changes
JP2021124429A (en) Scanning measurement method and scanning measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050726

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4303454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150501

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees