JP2004279368A - Focus control device and its method - Google Patents

Focus control device and its method Download PDF

Info

Publication number
JP2004279368A
JP2004279368A JP2003074949A JP2003074949A JP2004279368A JP 2004279368 A JP2004279368 A JP 2004279368A JP 2003074949 A JP2003074949 A JP 2003074949A JP 2003074949 A JP2003074949 A JP 2003074949A JP 2004279368 A JP2004279368 A JP 2004279368A
Authority
JP
Japan
Prior art keywords
filter
image
line
lens
filtered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003074949A
Other languages
Japanese (ja)
Inventor
Kenichiro Shimojo
賢一郎 下條
Masanobu Nishida
正信 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUROOBELL KK
Original Assignee
FUROOBELL KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUROOBELL KK filed Critical FUROOBELL KK
Priority to JP2003074949A priority Critical patent/JP2004279368A/en
Publication of JP2004279368A publication Critical patent/JP2004279368A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)
  • Eyeglasses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure the radius of curvature of the curve of a contact lens at a plurality of angles. <P>SOLUTION: A reticle 13 has a plurality of line segments crossing each other at preset angles, and a light emitted from a light source 11 is reflected from a contact lens 18 placed on a stage 17 through the reticle 13, a reticle focusing lens 14, a half mirror 15 and an object lens 16, trapped as an image signal through a focusing lens 20 by a CCD 21, A/D converted by an A/D converter 22, and stored in an image memory 23. The image signal includes the image of the reticle 13. A filter part 24 uses two-stage filters for filtering the image signal read out of the image memory 23. Thus, components corresponding to the line segments in specified directions are only extracted from the image of the reticle 13. The radius of curvature is found in accordance with the extracted components. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、フォーカス制御装置および方法に関し、例えばコンタクトレンズの曲率半径を測定する場合に用いて好適なフォーカス制御装置および方法に関する。
【0002】
【従来の技術】
コンタクトレンズは、それを使用する使用者の眼に合わせて製造する必要がある。このため、レンズの後方(眼球に接する方)の面(以下の説明において、レンズの後方の面をバックカーブBCと称する)、および前方(眼球に接しない方)の面(以下の説明において、レンズの前方の面をフロントカーブFCと称する)の曲率半径は、個々のレンズ毎に異なっている。製造したコンタクトレンズが、実際に意図するように製造されているか否かを検査するには、このレンズの曲率半径を、個々に測定する必要がある。
【0003】
また、コンタクトレンズの曲面は、球面の一部と一致することが理想的である。しかし、実際に製造されたコンタクトレンズの曲面は、必ずしも球面と一致するとは限らない。そこで、コンタクトレンズの曲面が、球面と一致しているか否かを検査する必要があり、そのために、コンタクトレンズの曲面の中心を通過する、複数の異なる方向の曲率半径を測定する必要がある。図1は、曲率半径を測定する方向の例を表している。
【0004】
図1において、上方には、コンタクトレンズ1を、曲面に対して垂直な方向に切断した場合の断面図が示され、下方には、コンタクトレンズ1の曲面に垂直な方向から、コンタクトレンズ1を見た場合の図が示されている。また、図1において、フロントカーブが、FCとして示され、バックカーブがBCとして示されている。図1のコンタクトレンズ1において、曲率半径を測定する方向は、例えば、線分AE、線分BF、線分CG、および線分DHの4方向である。なお、点Oは、コンタクトレンズ1の曲面の中心を示しており、線分AE、線分BF、線分CG、および線分DHは、いずれも、点Oを通過する。
【0005】
複数の異なる方向の曲率半径を測定するために、放射状の線分を含むターゲット像をコンタクトレンズに投影し、この投影方向と平行な方向にコンタクトレンズを徐々に移動させながら、コンタクトレンズから反射されたターゲット像に含まれている線分のコントラストが最も大きくなる位置を線分毎に特定し、特定した位置に基づいて、複数の方向の曲率半径を求めるようにしたものがある(例えば、特許文献1参照)。なお、特許文献1において、コントラストは、コンタクトレンズから反射されたターゲット像に含まれている線分と、その背景との境界における明るさの変化率として定義されている。
【0006】
【特許文献1】
特開平4−331345号公報(第3ベージ)
【0007】
【発明が解決しようとする課題】
コンタクトレンズから反射されたターゲット像に含まれている線分と、その背景との境界における明るさの変化率は、例えば、水平な線分についての変化率を求める場合、目的の線分を垂直微分することにより求められる。しかしながら、従来、目的の線分を垂直微分しようとすると、目的の線分に対して斜めに交差している線分も水平方向の成分の値を有しているため、斜めに交差した線分の水平成分の値も検出してしまい、目的の線分の明るさの変化率を正確に測定できないという課題があった。結果的に、正確に曲率半径を求められないことがあるという問題があった。
【0008】
この問題を解決するために、ターゲット像に含まれている線分を、直交する2本の線分のみとして(斜め方向の成分を無くして)、まず、90度の角度で直交する2方向の曲率半径を測定し、その後、ターゲット像を45度回転させ、最初に測定された曲率半径と45度の角度で交差する2方向の曲率半径を測定することが考えられる。
【0009】
しかしながら、このようにした場合、測定回数が2倍に増加してしまい、測定時間がかかるという課題があった。
【0010】
本発明はこのような状況に鑑みてなされたものであり、より効率的にレンズの曲率半径を測定することを目的とする。
【0011】
【課題を解決するための手段】
本発明のフォーカス制御装置は、複数の線分の像を撮像する撮像手段と、撮像手段により撮像された複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の線分に対応する微分値を算出する算出手段と、算出手段により算出された微分値に基づいて、フォーカス状態を制御する制御手段とを備えることを特徴とする。
【0012】
第1のフィルタは、3×3のフィルタにより画像をフィルタリングし、第2のフィルタは、第1のフィルタによりフィルタリングされたデータを、2×2のフィルタによりフィルタリングするようにすることができる。
【0013】
前記撮像手段により撮像される前記複数の線分は、所定の角度で交差し、前記複数の線分の像をレンズに投影する投影手段と、投影手段とレンズ間の距離を設定する設定手段とをさらに設けるようにし、前記制御手段には、前記算出手段により算出された前記微分値に基づいて、前記画像に含まれる前記線分の輪郭が明瞭になる、投影手段とレンズ間の距離を、前記線分毎に特定し、特定された距離に基づいて、前記複数の線分の交差角度ごとのレンズの曲率半径を演算するようにさせることができる。
【0014】
本発明のフォーカス制御方法は、複数の線分の像を撮像する撮像ステップと、撮像ステップの処理により撮像された複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の線分に対応する微分値を算出する算出ステップと、算出ステップの処理により算出された微分値に基づいて、フォーカス状態を制御する制御ステップとを含むことを特徴とする。
【0015】
本発明のフォーカス制御装置および方法においては、複数の線分の像が撮像され、撮像された複数の線分の像を含む画像が、第1のフィルタと第2のフィルタにより独立にフィルタリングされて、特定の方向の線分に対応する微分値が算出され、算出された微分値に基づいて、フォーカス状態が制御される。
【0016】
【発明の実施の形態】
図2は、本発明を適用したレンズ測定装置10の一実施の形態の構成を示している。
【0017】
図2においては、光源11より出射された光が、コンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16を介して、測定対象としてのコンタクトレンズ18に照射され、その反射光が、対物レンズ16、および結像レンズ20を介して、ビデオカメラなどのCCD(Charged Coupled Device)21に入射されるようになされている。
【0018】
コンデンサレンズ12は、光源11より出射された光を集束する。レチクル13は、レチクル結像レンズ14の後側焦点Fb14上に配置されており、コンデンサレンズ12により収束された光を透過させる。レチクル13は、例えば図3に示すように、垂直方向、水平方向、右上斜め方向、および左上斜め方向に伸びる4本の線分を有している。よって、レチクル13を透過した光には、図3のレチクル13の像が含まれる。従って、このレチクル13の像がコンタクトレンズ18に投影される。
【0019】
なお、以下の説明においては、図3に示されるように、垂直方向の線分をラインL1と称し、左上斜め方向の線分をラインL2と称し、水平方向の線分をラインL3と称し、右斜め方向の線分をラインL4と称する。ラインL1とラインL2は、45度の角度で交差している。ラインL2とラインL3も、45度の角度で交差している。ラインL3とラインL4もまた、45度の角度で交差している。ラインL4とラインL1も、45度の角度で交差している。
【0020】
レチクル結像レンズ14は、視野絞り位置のレチクル13の像を含む光を平行光に変換する。レチクル結像レンズ14により平行光に変換された光は、ハーフミラー15に入射する。ハーフミラー15は、レチクル結像レンズ14からの平行光を反射し、対物レンズ16に入射させる。対物レンズ16は、ハーフミラー15により反射された光を物体面19(図2の例においては、対物レンズ16の前側焦点Ff16)上に集束させる。
【0021】
ステージ17上の所定の位置には、コンタクトレンズ18が載置されている。ステージ17は、モータ37の駆動により、所定の範囲内で、光軸に沿って移動する。コンタクトレンズ18が物体面19上に位置するように、ステージ17の高さを調整した場合(図5を参照して後述する)、そこにレチクル13の像が結像し、これをCCD21で観測することができる。また、コンタクトレンズ18が所定の位置にある場合(図6を参照して後述する)、物体面19で一旦集束された光はコンタクトレンズ18に入射され、そこで反射されると、再び物体面19に集束する。このときの像も、CCD21でモニタすることができる。
【0022】
なお、以下の説明においては、ステージ17を対物レンズ16に近い側に最も近づけた場合のステージ17の位置を、原点とする。
【0023】
物体面19上の像からの光は、対物レンズ16に入射され、平行光とされた後、ハーフミラー15を介して結像レンズ20に入射される。結像レンズ20は、入入射された光を集束し、CCD21上に結像させる。
【0024】
CCD21は、結像された光を光電変換して画像信号を生成し、生成した画像信号をA/D変換器22に出力する。A/D変換器22は、CCD21より出力された画像信号をA/D変換し、変換した画像信号を画像メモリ23に供給する。画像メモリ23は、A/D変換器22から供給された画像信号を記憶する。画像メモリ23により記憶された画像信号は、フィルタ部24により、適宜読み出される。
【0025】
なお、図示は省略するが、CCD21の動作は、所定のインタフェースを介して、CPU41により制御される。
【0026】
フィルタ部24は、画像メモリ24から、画像信号を読み出し、フィルタリングすることにより、レチクル13の像を含む画像信号から、ラインL1乃至ラインL4のそれぞれの線分由来の微分値を算出する。フィルタ部24は、さらに、算出した微分値に所定の演算を施して、ラインL1乃至ラインL4毎の分散値を算出し、算出された分散値を、バス25を介して、RAM39に供給する。図4は、フィルタ部24の内部の構成例を示す図である。
【0027】
図4において、第1フィルタ101は、3×3フィルタ121−1および3×3フィルタ121−2を含む。3×3フィルタ121−1は、画像メモリ23から読み出された画像信号に対してフィルタ処理を実行し、処理後のデータを、2×2フィルタ131−1Aおよび2×2フィルタ131−1Bに供給する。3×3フィルタ121−2は、画像メモリ23から読み出された画像信号に対してフィルタ処理を実行し、処理後のデータを、2×2フィルタ131−2Aおよび2×2フィルタ131−2Bに供給する。
【0028】
第2フィルタ102は、2×2フィルタ131−1Aおよび2×2フィルタ131−1B、並びに2×2フィルタ131−2Aおよび2×2フィルタ131−2Bを含む。2×2フィルタ131−1Aは、3×3フィルタ121−1によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−1に供給する。2×2フィルタ131−1Bは、3×3フィルタ121−1によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−2に供給する。2×2フィルタ131−2Aは、3×3フィルタ121−2によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−3に供給する。2×2フィルタ131−2Bは、3×3フィルタ121−2によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−4に供給する。
【0029】
詳細は後述するが、画像信号を3×3フィルタ121−1でフィルタリングし、さらに2×2フィルタ131−1Aでフィルタリングすると、レチクル13のラインL1に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−1でフィルタリングし、さらに2×2フィルタ131−1Bでフィルタリングすると、レチクル13のラインL2に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−2でフィルタリングし、さらに2×2フィルタ131−2Aでフィルタリングすると、レチクル13のラインL3に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−2でフィルタリングし、さらに2×2フィルタ131−2Bでフィルタリングすると、レチクル13のラインL4に対応する微分値を得ることができる。
【0030】
分散値算出部103−1は、2×2フィルタ131−1Aから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−2は、2×2フィルタ131−1Bから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−3は、2×2フィルタ131−2Aから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−4は、2×2フィルタ131−2Bから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。
【0031】
図2に戻って、CPU(Central Processing Unit)41は、ROM(Read Only Memory)40に記憶されているプログラム、または記憶部35からRAM39にロードされたプログラムに従って、各種の演算を行い、フィルタ部24により演算されたデータをさらに処理するようになされている。RAM(Random Access Memory)39は、CPU41が各種の処理を実行する上において必要なデータやプログラムなどを記憶する。
【0032】
フィルタ部24、RAM39、ROM40、およびCPU41は、バス25を介して相互に接続されている。このバス25にはまた、インタフェース32も接続されている。
【0033】
入力部31は、使用者からの指令をインタフェース(I/F)32を介してCPU41に出力する。表示部33は、例えば、CRT(CathodeRay Tube)またはLCD(Liquid Crystal Display)などにより構成され、レンズ測定装置10の操作案内、およびコンタクトレンズ18の曲率半径などの測定結果を表示する。
【0034】
インタフェース32にはまた、必要に応じてドライブ34が接続され、磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部35にインストールされる。記憶部35は、ハードディスクなどにより構成され、プログラムなどが記憶され、適宜、プログラムなどが読み出される。
【0035】
モータドライバ36は、インタフェース32を介したCPU41からの指令に従って、モータ37を駆動する。モータ37は、モータドライバ36による制御に従って、コンタクトレンズ18が載置されているステージ17を、対物レンズ16の光軸に沿って、図中、上下方向(対物レンズ16と接離する方向)の、所定の位置に移動させる。リニアスケール38は、ステージ17の移動位置を測定し、測定結果の距離をインタフェース32を介してCPU41に供給する。
【0036】
なお、RAM39、ROM40、CPU41などは、マイクロコンピュータにより構成することができる。
【0037】
また、図2の例においては、ステージ17に載置されたコンタクトレンズ18を対物レンズ16に対して移動させるようにしているが、ステージ17を固定し、光源11、コンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16から構成される光学系を移動させるようにしてもよいことはもとよりである。要は、コンタクトレンズ18を光学系に対して相対的に移動させればよい。
【0038】
次に、図5乃至図7を参照して、コンタクトレンズ18の曲率半径の測定の原理について説明する。
【0039】
図5は、コンタクトレンズ18のバックカーブBCが、レチクル13の像が形成されている物体面19上に位置するように、ステージ17の位置を調整した状態を表している。図5に示すように、コンタクトレンズ18のバックカーブBCが、レチクル13の像が形成されている物体面19上に位置するとき、このバックカーブBCで反射された光がCCD21上に集束するので、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなる。このときの像を、説明の便宜上、BC実像と定義する。また、このとき、リニアスケール38により観測されるステージ17の位置を、Irとする。
【0040】
図6は、図5に示す状態から、コンタクトレンズ18のバックカーブBCの曲率半径BCRに対応する距離だけ、コンタクトレンズ18(ステージ17)をさらに上方に移動した状態を表している。図6の示すように、コンタクトレンズ18のバックカーブBCの曲率半径BCRに対応する距離だけ、コンタクトレンズ18(ステージ17)がさらに上方に移動すると、対物レンズ16により出射された光が集束する点(物体面19)が、コンタクトレンズ18のバックカーブBCの曲率半径の中心に位置することになる。その結果、バックカーブBCで反射された光は、そのまま入射した光と同一の光路上を戻り、物体面19に再び集束する。従って、この場合においても、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなる。このときの像を、便宜上、BC虚像(実際には実像であるが)と定義する。また、このときの位置を、Iiとする。
【0041】
図7は、図5におけるコンタクトレンズ18の位置と、図6におけるコンタクトレンズ18の位置の相対関係を表している。図7において、点線で示されたコンタクトレンズ18は、図5に示されたコンタクトレンズ18の位置を示し、実線で示されたコンタクトレンズ18は、図6に示されたコンタクトレンズ18の位置を示している。
【0042】
図7において、対物レンズ16より出射されたレチクル13からの平行光は、図7の点P1(図5および図6における物体面19に対応する)に集束している。従って、この点P1上に、コンタクトレンズ18(点線で図示)のバックカーブBCが位置するとき(図5に示す位置にあるとき)、図5に示したレチクル13の画像がCCD21により検出されることになる。このときのリニアスケール38上の検出位置が、Irとして求められる。
【0043】
これに対して、コンタクトレンズ18を対物レンズ16から離れる方向に、バックカーブBCの曲率半径BCRだけ移動させると(図6に示す位置まで移動させると)、点P1が、コンタクトレンズ18のバックカーブBCの曲率の中心に位置することになる。その結果、点P1を通過した光は、コンタクトレンズ18のバックカーブBCの点P2および点P3にそれぞれ垂直に入射される。
【0044】
このため、点P2および点P3において反射された光は、入射した光路と同一の光路上を戻り、再びP1に集束することになる。この状態における画像が、図6に示す状態として、CCD21により検出される。この場合におけるリニアスケール38による測定位置がIiとなる。
【0045】
図7より明らかなように、測定位置IrとIiの差(Ii−Ir)は、バックカーブの曲率半径BCRと等しいことが判る。従って、測定位置IrとIiから、コンタクトレンズ18のバックカーブBCの曲率半径BCRは、以下の式(1)により算出することができる。
【0046】
BCR=Ii−Ir (1)
【0047】
式(1)によりバックカーブBCの曲率半径BCRを算出するためには、測定位置IrとIiを特定する必要がある。次に、図8乃至図11を参照して、測定位置IrとIiを特定する原理について説明する。
【0048】
上述したように、コンタクトレンズ18と光学系の相対的位置が、所定の条件を満足している場合、すなわちコンタクトレンズ18が図5または図6に示された位置にある場合、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなるはずであり、CCD21には、図8Aに示すようなピントの合った鮮明な画像が得られている。図8Aにおいては、レチクル13のラインL1に対応する画像aが表されている。
【0049】
この図8Aに示す画像において、画像aに対して垂直な方向(図中横方向)の1本のライン上の画素の輝度値を取り出すと、図8Bに示すようになる。図8Bのグラフは、横軸が、取り出されたデータのライン上の各画素の座標を表し、縦軸が、ライン上の各画素における輝度値を表している。図8Bに示されるように、画像aに対応する部分の輝度が大きく、それ以外の部分の輝度は小さい値となっている。そこで、この輝度データを微分し、その絶対値を得ると、図8Cに示すようになる。即ち、図8Bに示す輝度が、小さい値から大きい値に変化する部分と、大きな値から小さな値に変化する部分とにおいて、微分値の絶対値が大きくなる。
【0050】
このような微分を、画像aと垂直な方向の全てのラインについて行い、得られた微分値の絶対値とその数をヒストグラムに表すと、図9Aに示すようになる。同図において、横軸が微分値(絶対値)を表し、縦軸が、その大きさの微分値を有する画素の数(カウント値)を表している。
【0051】
一方、コンタクトレンズ18と光学系の相対的距離が、所定の条件を満足していない場合、すなわちコンタクトレンズ18が図5および図6に示された位置以外の位置にある場合、CCD21により観測される画像は、図10Aに示すように、所謂ピンボケの状態となる。図10Aは、画像aの境界線が、明瞭でなく、ぼやけている。このような画像の輝度の変化を表すと、図10Bに示すようになる。この図10Bを、図8Bと比較して明らかなように、図10Bにおいては、輝度の値が緩やかに変化している。このため、この図10Bに示す値を微分すると、図10Cに示すような結果が得られる。この図10Cのグラフを、図8Cのグラフと比較して明らかなように、微分値の大きさが、図10Cの方が小さい値となっている。
【0052】
そして、図10Cに示す全ての水平方向のラインについて同様の処理を行い、微分値(絶対値)のヒストグラムを作成すると、図9Bに示すようになる。この図9Bのヒストグラムを、図9Aに示すヒストグラムと比較して明らかなように、図9Bに示す場合の方が、微分値(絶対値)の最大値が、図9Aに示す場合より小さい値となっている。
【0053】
このように、図9Aに示す状態と、図9Bに示す状態から、CCD21により観測される画像aが、ピントが合っている状態にあるのか否かを判定することができる。この判定を行うため、本実施の形態においては、全画面の微分値(絶対値)のヒストグラムの分散値を演算する。即ち、微分値と、その値の微分値の画素の数(カウント値)の積の和を演算する。
【0054】
そして、算出した分散値を、ステージ17の位置と分散値の大きさをそれぞれ横軸と縦軸とする座標軸上にプロットする。こうして得られるグラフ上において、コンタクトレンズ18と光学系が所定の条件を満たす位置、すなわち図5または図6に示される位置に配置されたとき、分散値が正のピークを有することになる。すなわち、グラフ上には、図5の状態におけるピーク、および図6の状態におけるピークの、2つの正のピークが得られる。この正のピークのときのステージ11の位置が、IrまたはIiとなる。図5および図6から分かるように、
Ir<Ii
なので、2つのピークのときのステージ17の位置のうち、より距離が長いステージ17の位置のほうがIiであり、距離が短いステージ17の位置の方がIrである。
【0055】
以上のようにして、IrおよびIiを特定することができる。そして、特定したIrおよびIiを、式(1)に代入することにより、コンタクトレンズ18のバックカーブBCの曲率半径BCRを求めることができる。
【0056】
図2のレンズ測定装置10は、コンタクトレンズ18の曲率半径を、複数の方向に対して求めることができる。
【0057】
次に、図11および図12のフローチャートを参照して、レンズ測定装置10の曲率半径測定処理について説明する。
【0058】
ステップS1において、CPU41は、ステージ17が、予め設定してある所定の基準位置(原点)に存在するか否かを判定し、ステージ17が原点に存在しないと判定した場合、処理はステップS2に進む。
【0059】
ステップS2において、CPU41は、モータドライバ36に、ステージ17を原点に移動させるように指令する。モータドライバ36は、CPU41からの指令に従ってモータ37を駆動し、コンタクトレンズ18が載置されているステージ17の位置を原点に移動させる。その後、処理は、ステップS3に進む。
【0060】
ステップS1において、CPU41が、ステージ17は基準位置(原点)に存在すると判定した場合、ステップS2の処理はスキップされ、処理はステップS3に進む。
【0061】
ステップS3において、CPU41は、表示部33に、測定範囲の入力を促す案内を表示し、入力部31からの測定範囲の入力を受け付ける。すなわち、後述するように、レンズ測定装置10は、ステージ17を、原点を基準として光学系から離れる方向に移動させ、画像を取り込む処理を繰り返し実行するのであるが、このステージ17を移動させて測定処理を実行する範囲が、ここにおいて入力される。使用者は、入力部31を操作して、測定範囲の数値を入力する。入力された測定範囲の数値は、入力部31から、インタフェース32を介して、CPU41に通知される。CPU41は、通知された測定範囲の数値を、RAM39に記憶させる。
【0062】
コンタクトレンズ18のバックカーブBCは、所定の曲率半径を有している。いま、この曲率半径を測定するのであるが、コンタクトレンズ18の製造時における最悪のばらつきを考慮すれば、測定範囲は、所定の値の範囲内になる。従って、このように、測定範囲を規定すれば、それだけ測定処理を迅速に完了することができるようになる。
【0063】
コンタクトレンズ18の設計値が不明である場合においては、このステップS3における測定範囲は、このレンズ測定装置10により測定可能な最大の範囲が設定される。
【0064】
ステップS3の処理の後、処理はステップS4に進む。
【0065】
ステップS4において、CPU41は、表示部33に、測定開始の指示を受け付け可能である旨の案内を表示し、入力部31から測定開始の指示が入力されるまで待機する。使用者は、入力部31から、測定開始の指示を入力することができ、使用者により、測定開始の指示が入力された場合、測定開始の指示に対応する操作信号が、入力部31からCPU41に通知される。その後、処理はステップS5に進む。
【0066】
ステップS5において、CPU41は、光源11を点灯させる。これ以降、測定が終了するまで、光源11は点灯しつづける。光源11が点灯することにより、光源11からの光がコンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16を介して、コンタクトレンズ18に照射されるようになる。従って、コンタクトレンズ18には、レチクル13の像が投影される。ステップS5の処理の後、処理はステップS6に進む。
【0067】
ステップS6において、CPU41は、ステップS3で受け付けられた測定範囲のうち、原点に最も近い位置(始端部)に、ステージ17を移動させるように、モータドライバ36に指令する。モータドライバ36は、CPU41からの指令に従ってモータ37を駆動し、コンタクトレンズ18が載置されているステージ17の位置を、ステップS3で受け付けられた測定範囲の始端部に移動させる。その後、処理は、ステップS7に進む。
【0068】
ステップS7において、CPU41は、A/D変換器22に、CCD21が出力する画像データをA/D変換して、取り込むように指令する。A/D変換器22は、CPU41からの指令に従って、CCD21が出力する画像信号をA/D変換し、これを画像メモリ23に転送し、記憶させる。ステップS7の処理の後、処理はステップS8に進む。
【0069】
ステップS8において、CPU41は、フィルタ部24に指令して、フィルタリング処理を実行させる。
【0070】
ここで、ステップS8のフィルタリング処理について、図13のフローチャートを参照して、詳細に説明する。
【0071】
図13のステップS51において、図4の3×3フィルタ121−1は、画像メモリ23に記憶された画像信号を読み出し、以下の3×3の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを2×2フィルタ131−1Aおよび2×2フィルタ131−1Bに出力する。
【0072】
【数1】

Figure 2004279368
【0073】
なお、フィルタの演算子が以下のような場合(以下のフィルタをフィルタAとする)、
【0074】
【数2】
Figure 2004279368
【0075】
演算式は、以下の式(2)である。
【0076】
Z’(i,j)=aZ(i−1,j−1)+bZ(i,j−1)+cZ(i+1,j−1)+dZ(i,j−1)+eZ(i,j)+fZ(i,j+1)+gZ(i−1,j+1)+hZ(i,j+1)+iZ(i+1,j+1) (2)
【0077】
式(2)において、Z(i,j)は、座標(i,j)の画素であり、Z(i−1,j−1)は座標(i−1,j−1)の画素であり、Z(i,j−1)は座標(i,j−1)の画素であり、Z(i+1,j−1)は座標(i+1,j−1)の画素であり、Z(i,j−1)は座標(i,j−1)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i−1,j+1)は座標(i−1,j+1)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i+1,j+1)は座標(i+1,j+1)の画素である。また、式(2)において、Z’(i,j)は、座標(i,j)の変換後の値である。Z(i−1,j−1)、Z(i,j−1)、Z(i+1,j−1)、Z(i,j−1)、Z(i,j+1)、Z(i−1,j+1)、Z(i,j+1)、およびZ(i+1,j+1)は、Z(i,j)を取り囲む近傍画素である。
【0078】
ステップS52において、図4の3×3フィルタ121−2は、画像メモリ23に記憶された画像信号を読み出し、以下の3×3の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを2×2フィルタ131−2Aおよび2×2フィルタ131−2Bに出力する。
【0079】
【数3】
Figure 2004279368
【0080】
ステップS53において、図4の2×2フィルタ131−1Aは、3×3フィルタ121−1がステップS51で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−1に出力する。
【0081】
【数4】
Figure 2004279368
【0082】
なお、フィルタの演算子が以下のような場合、
【数5】
Figure 2004279368
演算式は、以下の式(3)である。
【0083】
Z’(i,j)=aZ(i,j)+bZ(i+1,j)+cZ(i,j+1)+dZ(i+1,j+1) (3)
【0084】
式(3)において、Z(i,j)は、座標(i,j)の画素であり、Z(i+1,j)は座標(i+1,j)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i+1,j+1)は座標(i+1,j+1)の画素である。また、式(3)において、Z’(i,j)は、座標(i,j)の変換後の値である。
【0085】
図14は、2×2フィルタ131−1Aから出力されたデータの例を表している。図14において、微分後データ101は、3×3フィルタ121−1および2×2フィルタ131−1Aによりフィルタリングされたデータである。図14に示されるように、微分後データ101は、レチクル13のラインL1の成分のみを微分した値となっている。なお、実際のデータにおいては、ラインL1に対応する成分が白く表示され、それ以外の背景部分が黒く表示されていた(後述する図15乃至図17、並びに図20乃至図28も同様)。
【0086】
ステップS54において、図4の2×2フィルタ131−1Bは、3×3フィルタ121−1がステップS51で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−2に出力する。
【0087】
【数6】
Figure 2004279368
【0088】
図15は、2×2フィルタ131−1Bから出力されたデータの例を表している。図15において、微分後データ111は、3×3フィルタ121−1および2×2フィルタ131−1Bによりフィルタリングされたデータである。図15に示されるように、微分後データ111は、レチクル13のラインL2の成分のみを微分した値となっている。
【0089】
ステップS55において、図4の2×2フィルタ131−2Aは、3×3フィルタ121−2がステップS52で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−3に出力する。
【0090】
【数7】
Figure 2004279368
【0091】
図16は、2×2フィルタ131−2Aから出力されたデータの例を表している。図16において、微分後データ121は、3×3フィルタ121−2および2×2フィルタ131−2Aによりフィルタリングされたデータである。図16に示されるように、微分後データ121は、レチクル13のラインL3の成分のみを微分した値となっている。
【0092】
ステップS56において、図4の2×2フィルタ131−2Bは、3×3フィルタ121−2がステップS52で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−4に出力する。
【0093】
【数8】
Figure 2004279368
【0094】
図17は、2×2フィルタ131−2Bから出力されたデータの例を表している。図17において、微分後データ131は、3×3フィルタ121−2および2×2フィルタ131−2Bによりフィルタリングされたデータである。図17に示されるように、微分後データ131は、レチクル13のラインL4の成分のみを微分した値となっている。
【0095】
以上のようにして、フィルタリング処理が実行され、ラインL1乃至ラインL4の各線分のみにそれぞれ対応する微分値が、第2フィルタ102から出力される。
【0096】
なお、ステップS51およびステップS52の処理は、説明の便宜上、以上の順番で実行しているが、実際には同時に実行される。また、ステップS53乃至ステップS56の処理も、説明の便宜上、以上の順番で実行しているが、実際には、ステップS53乃至ステップS56の順番で処理が実行されることに限られるものではなく、その前段の第1フィルタ101からデータが供給されたタイミングで、それぞれ処理を実行する。
【0097】
図11に戻って、ステップS8のフィルタリング処理の後、処理はステップS9に進み、フィルタ部24は、分散値算出処理を実行する。ステップS9の分散値算出処理について、図18のフローチャートを参照して説明する。
【0098】
ステップS71において、分散値算出部103−1は、図13のステップS53で、2×2フィルタ131−1Aから出力された、図14に示される微分後データ101の分散値を算出する。すなわち、分散値算出部103−1は、まず2×2フィルタ103−1Aから出力された微分後データ101の絶対値を算出し、ラインL1と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。即ち、微分値と、その値の微分値の画素の数(カウント値)の積の和を演算する。分散値算出部103−1は、算出した分散値を、CPU41に供給する。
【0099】
ステップS72において、分散値算出部103−2は、図13のステップS54で、2×2フィルタ131−1Bから出力された、図15に示される微分後データ111の分散値を算出する。すなわち、分散値算出部103−2は、まず2×2フィルタ103−1Bから出力された微分後データ111の絶対値を算出し、ラインL2と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−2は、算出した分散値を、CPU41に供給する。
【0100】
ステップS73において、分散値算出部103−3は、図13のステップS55で、2×2フィルタ131−2Aから出力された、図16に示される微分後データ121の分散値を算出する。すなわち、分散値算出部103−3は、まず2×2フィルタ103−2Aから出力された微分後データ121の絶対値を算出し、ラインL3と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−3は、算出した分散値を、CPU41に供給する。
【0101】
ステップS74において、分散値算出部103−4は、図13のステップS56で、2×2フィルタ131−2Bから出力された、図17に示される微分後データ131の分散値を算出する。すなわち、分散値算出部103−4は、まず2×2フィルタ103−2Bから出力された微分後データ131の絶対値を算出し、ラインL4と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−4は、算出した分散値を、CPU41に供給する。
【0102】
以上のようにして、分散値算出処理が実行され、ラインL1乃至ラインL4のそれぞれに対応する分散値が算出される。なお、以上の説明においては、説明の便宜上、ステップS71乃至ステップS74の順番で、処理を実行したが、実際には、ステップS71乃至ステップS74の順番で処理が実行されるとは限らず、分散値算出部103−1乃至103−4は、第2フィルタ102からデータが供給されたタイミングで、それぞれ処理を実行する。
【0103】
図11に戻って、ステップS9の分散値算出処理の後、処理はステップS10に進み、CPU41は、ステップS9の処理により供給された、ラインL1乃至ラインL4にそれぞれ対応する分散値を、RAM39に記憶させる。なお、CPU41は、その時点でリニアスケール38から供給されたステージ17の距離を取得し、これを、分散値と対応付けて記憶させる。
【0104】
ステップS10の処理の後、ステップS11において、CPU41は、測定範囲内を全て測定したか否かを判定する。すなわち、CPU41は、RAM39に記憶された測定範囲のうち、原点から最も遠い位置(終端部)の値を読み出すと共に、リニアスケール38から、現在のステージ17までの距離を取得し、現在のステージ17の位置が測定範囲の終端部であるか否かを判定する。その結果、現在のステージ17の位置が測定範囲の終端部ではなかった場合、処理はステップS12に進む。
【0105】
ステップS12において、CPU41は、モータドライバ36に、ステージ17を1ステップだけ、対物レンズ16と離れる方向に移動させるように指令する。モータドライバ36は、CPU41からの指令に従って、モータ37を駆動し、ステージ17を、1ステップだけ、対物レンズ16と離れる方向に移動させる。
【0106】
ステップS12の処理の後、処理はステップS7に戻り、上述したステップS7以降の処理がくり返し実行される。
【0107】
以上のようにして、ステージ17が測定範囲内にある間、ステップS7乃至ステップS12の処理がくり返され、RAM39には、図19に示されるように、分散値が記憶される。図19は、RAM39に記憶される分散値、およびステージ17までの距離の例を表している。
【0108】
図19において、1番左側には、測定したステップが1乃至Nまで示され、その右隣には、各ステップにおけるステージ17までの距離が示されている。さらにその右側には、各ステップにおける分散値が、ラインL1、ラインL2、ラインL3、およびラインL4の順番で示されている。このように、RAM39には、各ステップ毎に、ステージ17までの距離、およびラインL1乃至ラインL4に対応する分散値が、対応付けられて記憶されている。なお、図19においては、ステージ17までの距離は、全て「**」で示されているが、実際には、リニアスケール38により測定されたステージ17までの距離が記録されている。また、図19においては、分散値は全て「***」で示されているが、実際には、フィルタ部24から供給された分散値が記録されている。
【0109】
図11に戻って、ステップS11において、CPU41が現在のステージ17の位置が測定範囲の終端部であると判定した場合、処理は、図12のステップS13に進む。
【0110】
ステップS13において、CPU41は、ラインL1乃至ラインL4の中から、曲率半径BCRを算出する線分を選択する。ステップS14において、CPU41は、ステップS13で選択された線分に対応する分散値、および分散値に対応するステージ17までの距離を読み出し、ノイズ成分除去処理を実行する。すなわち、CPU41は、例えば、FFT(高速フーリエ変換)などの処理を行い、高周波成分によるノイズ成分を除去する。その後、処理はステップS15に進む。
【0111】
ステップS15において、CPU41は、ステップS14でノイズ成分を除去したデータ(分散)のピーク位置を演算により求める。
【0112】
すなわち、ステップS9で、RAM39に格納し、ステップS14でノイズ成分を除去した分散値を、ステージ17の位置と分散値の大きさをそれぞれ横軸と縦軸とする座標軸上にプロットして得られるグラフ上において、コンタクトレンズ18と光学系が所定の条件を満たす位置(図5および図6に示される位置)に配置されたとき、分散値が正のピークを有することになる。そこで、この分散値の正のピーク位置を検出するために、CPU41は、例えば分散値を微分する処理を実行する。正のピーク位置においては、この微分値が正から負に変化することになる。従って、CPU41は、この微分値の正から負に変化するゼロクロス点を検出することで、コンタクトレンズ18と光学系が所定の位置に配置されたときのステージ17の位置、すなわちIrおよびIiを求める。
【0113】
ステップS15の処理の後、ステップS16において、CPU41は、ステップS15で算出した値を、式(1)に代入することにより、ステップS13で選択された線分に対応するコンタクトレンズ18のバックカーブBCの曲率半径BCRを算出する。CPU41は、算出した曲率半径BCRを、線分と対応付けてRAM39に記憶させる。
【0114】
ステップS16の処理の後、ステップS17において、CPU41は、ラインL1乃至ラインL4の全ての線分に対応する曲率半径BCRを算出したか否かを判定し、全ての線分に対応する曲率半径BCRの算出が終わっていない場合(まだ算出していない線分があった場合)、処理はステップS13に戻り、上述したステップS13以降の処理をくり返し実行する。なお、2回目以降のステップS13においては、すでに選択された線分は選択されないようになっている。
【0115】
ステップS17において、CPU41が、ラインL1乃至ラインL4の全ての線分に対応する曲率半径BCRを算出したと判定した場合、処理はステップS18に進む。
【0116】
ステップS18において、CPU41は、ステップS16で算出された曲率半径BCRを、RAM39から読み出し、ラインL1乃至ラインL4のそれぞれに対応する曲率半径BCRを、表示部33に表示させる。これにより、使用者は、45度間隔で測定された曲率半径BCRの4つの値を知ることができる。なお、入力部31からの指示に従って、CPU41は、算出された曲率半径を記憶部35に記憶させたり、ドライブ34を介して、磁気ディスク51、光ディスク52、光磁気ディスク53、または半導体メモリ54に記録することも可能である。
【0117】
以上のようにして、レンズ測定装置10の曲率半径測定処理が実行される。以上のような処理を実行することにより、複数の方向の曲率半径を測定することが可能となる。
【0118】
また、レチクル13に含まれている線分を、直交する2本の線分のみとして(斜め方向の成分を無くして)、まず、90度の角度で直交する2方向の曲率半径を測定し、その後、レチクル13を45度回転させ、最初に測定された曲率半径と45度の角度で交差する2方向の曲率半径を測定する場合、測定回数が2倍に増加してしまうが、本発明によれば、測定回数を増加させることなく、複数の異なる方向の曲率半径を測定することができる。従って、測定時間が長時間にならないようにすることができる。
【0119】
ところで、本発明においては、ラインL1乃至ラインL4のそれぞれに対応した微分値を算出するために、3×3フィルタ121−1および3×3フィルタ121−2、2×2フィルタ131−1Aおよび2×2フィルタ131−1B、並びに2×2フィルタ131−2Aおよび2×2フィルタ131−2Bにより、画像信号をフィルタリングしている。
【0120】
このように、第1フィルタおよび第2フィルタの2つのフィルタによりフィルタリングして、ラインL1乃至ラインL4のそれぞれに対応した微分値を算出することは、以下の実験結果を根拠としている。
【0121】
まず、3×3のフィルタのみによるフィルタリングの結果を示す。
【0122】
映像・画像処理LSI/モジュールデータブック別冊1997−1998(住友金属工業株式会社、第573ページ)には、以下のフィルタ(以下のフィルタをフィルタ1とする)により、横線の検出ができると記載されていた。
【0123】
【数9】
Figure 2004279368
【0124】
そこで、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、フィルタ1によりフィルタリングしたところ、図20に示される結果となった。図20においては、ラインL1に対応する縦線は消去されているが、ラインL2およびラインL4に対応する線分は消去されずに残っていた。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、−1+2+(−1)=0となる。
【0125】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ2とする)によりフィルタリングした。
【0126】
【数10】
Figure 2004279368
【0127】
フィルタ1の場合と同様、図20のような結果となった。ただし、フィルタ2においては、ラインL3およびラインL4に対応する線分は、フィルタ1でフィルタリングした場合より、薄く表示された。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、−1+2+(−1)=0となる。
【0128】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ3とする)によりフィルタリングした。
【0129】
【数11】
Figure 2004279368
【0130】
図21に示されるような結果となった。図21においては、ラインL3に対応する線分が消去されている。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0131】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ4とする)によりフィルタリングした。
【0132】
【数12】
Figure 2004279368
【0133】
図22に示されるような結果となった。図22においては、ラインL2に対応する線分が消去されている。また、消去されたラインL2に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。なお、図22においては、負の値を無視している。また、同様に、フィルタ4によりフィルタリングして、フィルタリング後の値の絶対値をとった場合、図23に示されるような結果となった。図23においても、図22と同様、ラインL2に対応する線分が消去されている。
【0134】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ5とする)によりフィルタリングした。
【0135】
【数13】
Figure 2004279368
【0136】
図24に示されるような結果となった。図24においては、ラインL1およびラインL3に対応する線分が消去されている。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、1+(−2)+1=0となる。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、1+(−2)+1=0となる。また、フィルタ5によりフィルタリングした場合、実際には、ラインL2に対応する線分は、薄く表示された。
【0137】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ6とする)によりフィルタリングした。
【0138】
【数14】
Figure 2004279368
【0139】
フィルタ5の場合と同様、図24に示されるような結果となった。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となる。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となる。
【0140】
CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ7とする)によりフィルタリングした。
【0141】
【数15】
Figure 2004279368
【0142】
フィルタ5およびフィルタ6の場合と同様、図24に示されるような結果となった。以上のことより、フィルタ5乃至フィルタ7により、ラインL1およびラインL3に対応する線分を消去することができることが分かった。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、0+0+0=0となり、消去されたラインL3に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0143】
また、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ8とする)によりフィルタリングした。
【0144】
【数16】
Figure 2004279368
【0145】
図25に示されるような結果となった。図25においては、ラインL2およびラインL4に対応する線分が消去されている。また、ラインL2に対応するフィルタの方向成分を足し算すると、0+0+0=0となり、ラインL4に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0146】
また、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ9とする)によりフィルタリングした。
【0147】
【数17】
Figure 2004279368
【0148】
図26に示されるような結果となった。図26においては、ラインL1およびラインL4に対応する線分が消去されている。また、ラインL1に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となり、ラインL4に対応する方向成分を足し算すると、(−1)+2+(−1)=0となる。
【0149】
まず、以上の実験の結果、3×3のフィルタでフィルタリングすることにより、2本分の線分に対応する方向成分を消去することができることが分かった。また、消去される線分の方向のフィルタ係数同士を足し算すると、0となることが分かった。
【0150】
すなわち、上述したフィルタAを参照して説明すると、ラインL1に対応する線分が消去される場合、b+e+h=0であり、ラインL2に対応する線分が消去される場合、a+e+i=0であり、ラインL3に対応する線分が消去される場合、d+e+f=0であり、ラインL4に対応する線分が消去される場合、g+e+c=0であることが分かった。
【0151】
しかしながら、3×3のフィルタでは、3方向の成分を同時に消去することは困難である。そこで、1つ目のフィルタにより2方向の成分を消去した後、2つ目のフィルタで、残る1方向の成分を消去する方法を実験した。
【0152】
例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、3×3フィルタ121−2によりフィルタリングし、3×3フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ10とする)によりフィルタリングした。
【0153】
【数18】
Figure 2004279368
【0154】
図27に示されるような結果となった。図27においては、ラインL1およびラインL2に対応する線分が消去されている。
【0155】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ11とする)によりフィルタリングした。
【0156】
【数19】
Figure 2004279368
【0157】
図17に示されるような結果となった。ただし、ラインL4に対応する線分が、3×3フィルタ121−2および2×2フィルタ131−2Bによりフィルタリングした場合より、薄く表示された。
【0158】
また、例えばCCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−1によりフィルタリングし、フィルタ121−1によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ12とする)によりフィルタリングした。
【0159】
【数20】
Figure 2004279368
【0160】
図28に示されるような結果となった。図28においては、ラインL3およびラインL4に対応する線分が消去されている。
【0161】
また、フィルタ部24のフィルタとして採用されている3×3フィルタ121−1および2×2フィルタ131−1Aによるフィルタリングの実験も行なったところ、上述した図14のような結果となった。また、3×3フィルタ121−1および2×2フィルタ131−1Bによるフィルタリングの実験も行なったところ、上述した図15のような結果となった。また、3×3フィルタ121−2および2×2フィルタ131−2Aによるフィルタリングの実験も行なったところ、上述した図16のような結果となった。また、3×3フィルタ121−2および2×2フィルタ131−2Bによるフィルタリングの実験も行なったところ、上述した図17のような結果となった。
【0162】
以上の実験結果に基づいて、本発明においては、3×3フィルタ121−1および2×2フィルタ131−1Aにより、ラインL1に対応する成分を抽出し、3×3フィルタ121−1および2×2フィルタ131−1Bにより、ラインL2に対応する成分を抽出し、3×3フィルタ121−2および2×2フィルタ131−2Aにより、ラインL3に対応する成分を抽出し、3×3フィルタ121−2および2×2フィルタ131−2Bにより、ラインL4に対応する成分を抽出するようにした。
【0163】
なお、3×3のフィルタによりフィルタリングした後、さらに3×3のフィルタでフィルタリングする実験も行なったが、本発明において採用されたフィルタを用いた場合と比較して、ノイズが多くなったので、採用しなかった。
【0164】
例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ13とする)によりフィルタリングした。
【0165】
【数21】
Figure 2004279368
【0166】
図27に示されるような結果となった。
【0167】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、フィルタ1によりフィルタリングしたところ、図27に示されるような結果となった。
【0168】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ14とする)によりフィルタリングした。
【0169】
【数22】
Figure 2004279368
【0170】
図16に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Aによりフィルタリングした場合より、ノイズが多かった。
【0171】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ15とする)によりフィルタリングした。
【0172】
【数23】
Figure 2004279368
【0173】
図16に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Aによりフィルタリングした場合より、ノイズが多かった。
【0174】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、フィルタ7によりフィルタリングした。図17に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Bによりフィルタリングした場合より、ノイズが多かった。
【0175】
また、5×5のフィルタによりフィルタリングする実験も行なった。例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ16とする)によりフィルタリングした。
【0176】
【数24】
Figure 2004279368
【0177】
図28に示されるような結果となった。
【0178】
また、5×5のフィルタによりフィルタリングされたデータをさらに3×3のフィルタでフィルタリングする実験も行なった。例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ16によりフィルタリングし、フィルタ16によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ17とする)によりフィルタリングした。
【0179】
【数25】
Figure 2004279368
【0180】
図28に示されるような結果となった。
【0181】
以上のような、実験の結果、ラインL1に対応する線分以外の成分を消去するためには、3×3のフィルタ121−1、および2×2のフィルタ131−1Aによりフィルタリングすることが良いことが分かった。また、ラインL2に対応する線分以外の成分を消去するためには、3×3のフィルタ121−1、および2×2のフィルタ131−1Bによりフィルタリングすることが良いことが分かった。また、ラインL3に対応する線分以外の成分を消去するためには、3×3のフィルタ121−2、および2×2のフィルタ131−2Aによりフィルタリングすることが良いことが分かった。また、ラインL4に対応する線分以外の成分を消去するためには、3×3のフィルタ121−2、および2×2のフィルタ131−2Bによりフィルタリングすることが良いことが分かった。
【0182】
以上の実験結果に基づいて、本発明においては、図4に示されるような、第1フィルタ101および第2フィルタを設けている。
【0183】
以上のように、本発明によれば、測定回数を増加させることなく、複数の方向から、コンタクトレンズ18の曲率半径を測定することが可能となる。よって、測定時間を増加させないようにすることができる。
【0184】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
【0185】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0186】
【発明の効果】
以上のように、本発明によれば、レンズの曲率半径を測定することができる。また、本発明によれば、測定時間は、従来と変わらないまま、複数の方向から、レンズの曲率半径を測定することができる。
【図面の簡単な説明】
【図1】コンタクトレンズの曲率半径の測定方向を説明する図である。
【図2】本発明を適用したレンズ測定装置の構成例を示す図である。
【図3】図2のレチクルの構成例を示す図である。
【図4】図2のフィルタ部の構成例を示す図である。
【図5】コンタクトレンズのバックカーブからの光により形成される像の位置を説明する図である。
【図6】コンタクトレンズのバックカーブからの光により形成される像の位置を説明する他の図である。
【図7】コンタクトレンズのバックカーブの曲率半径を求める原理を説明する図である。
【図8】図5および図7に示されるステージの位置の特定方法を説明する図である。
【図9】図5および図7に示されるステージの位置の特定方法を説明する他の図である。
【図10】図5および図7に示されるステージの位置の特定方法を説明する、さらに他の図である。
【図11】レンズ測定装置の曲率半径測定処理を説明するフローチャートである。
【図12】レンズ測定装置の曲率半径測定処理を説明する、図11に続くフローチャートである。
【図13】図11のステップS8の処理を詳細に説明するフローチャートである。
【図14】フィルタリングされたデータの例を示す図である。
【図15】フィルタリングされたデータの例を示す他の図である。
【図16】フィルタリングされたデータの例を示す、さらに他の図である。
【図17】フィルタリングされたデータの例を示す図である。
【図18】図11のステップS9の処理を詳細に説明するフローチャートである。
【図19】RAMに記憶されるデータの例を示す図である。
【図20】実験結果の例を示す図である。
【図21】実験結果の例を示す他の図である。
【図22】実験結果の例を示す、さらに他の図である。
【図23】実験結果の例を示す図である。
【図24】実験結果の例を示す他の図である。
【図25】実験結果の例を示す、さらに他の図である。
【図26】実験結果の例を示す図である。
【図27】実験結果の例を示す他の図である。
【図28】実験結果の例を示す、さらに他の図である。
【符号の説明】
10 レンズ測定装置
11 光源
12 コンデンサレンズ
13 レチクル
14 レチクル結像レンズ
15 ハーフミラー
16 対物レンズ
17 ステージ
18 コンタクトレンズ
19 物体面
20 結像レンズ
21 CCD
22 A/D変換器
23 画像メモリ
24 フィルタ部
37 モータ
38 リニアスケール
39 RAM
40 ROM
41 CPU
101 第1フィルタ
102 第2フィルタ
103−1乃至103−4 分散値算出部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a focus control device and method, and more particularly to a focus control device and method suitable for use in measuring a radius of curvature of a contact lens, for example.
[0002]
[Prior art]
Contact lenses must be manufactured for the eyes of the user who uses them. For this reason, the rear surface (the surface in contact with the eyeball) of the lens (the surface behind the lens is referred to as a back curve BC in the following description) and the front surface (the one not in contact with the eyeball) (in the following description, The radius of curvature of the front surface of the lens is referred to as a front curve FC. In order to check whether a manufactured contact lens is actually manufactured as intended, it is necessary to individually measure the radius of curvature of the lens.
[0003]
Ideally, the curved surface of the contact lens coincides with a part of the spherical surface. However, the curved surface of an actually manufactured contact lens does not always match the spherical surface. Therefore, it is necessary to inspect whether or not the curved surface of the contact lens matches the spherical surface, and for that purpose, it is necessary to measure the radii of curvature in a plurality of different directions passing through the center of the curved surface of the contact lens. FIG. 1 shows an example of a direction in which the radius of curvature is measured.
[0004]
In FIG. 1, a cross-sectional view when the contact lens 1 is cut in a direction perpendicular to a curved surface is shown in the upper part, and the contact lens 1 is shown in a lower part in a direction perpendicular to the curved surface of the contact lens 1. The view when viewed is shown. In FIG. 1, the front curve is shown as FC, and the back curve is shown as BC. In the contact lens 1 of FIG. 1, the directions in which the radius of curvature is measured are, for example, four directions of a line segment AE, a line segment BF, a line segment CG, and a line segment DH. Note that the point O indicates the center of the curved surface of the contact lens 1, and the line segments AE, BF, CG, and DH all pass through the point O.
[0005]
In order to measure the radii of curvature in a plurality of different directions, a target image including a radial line segment is projected onto the contact lens, and the target image is reflected from the contact lens while gradually moving the contact lens in a direction parallel to the projection direction. There is a method in which a position where the contrast of a line segment included in a target image is maximized is specified for each line segment, and radii of curvature in a plurality of directions are obtained based on the specified position (for example, see Patent Reference 1). In Patent Literature 1, the contrast is defined as a rate of change in brightness at a boundary between a line segment included in a target image reflected from a contact lens and its background.
[0006]
[Patent Document 1]
JP-A-4-331345 (third page)
[0007]
[Problems to be solved by the invention]
The rate of change in brightness at the boundary between the line segment included in the target image reflected from the contact lens and the background is, for example, when determining the rate of change for a horizontal line segment, the target line segment is vertically It is obtained by differentiating. However, conventionally, when trying to differentiate the target line segment vertically, the line segment obliquely intersecting the target line segment also has the value of the component in the horizontal direction. Has also been detected, and the change rate of the brightness of the target line segment cannot be accurately measured. As a result, there has been a problem that the radius of curvature cannot be accurately obtained.
[0008]
In order to solve this problem, the line segment included in the target image is regarded as only two orthogonal line segments (eliminating the components in the oblique direction), and first, the line segments in the two directions orthogonal to each other at 90 degrees are used. It is conceivable to measure the radius of curvature, then rotate the target image by 45 degrees, and measure the radius of curvature in two directions intersecting the initially measured radius of curvature at an angle of 45 degrees.
[0009]
However, in such a case, the number of measurements is doubled, and there is a problem that the measurement takes a long time.
[0010]
The present invention has been made in view of such a situation, and has as its object to measure the radius of curvature of a lens more efficiently.
[0011]
[Means for Solving the Problems]
The focus control device according to the present invention is configured such that an imaging unit that captures an image of a plurality of line segments, and an image that includes an image of the plurality of line segments captured by the imaging unit are independently generated by a first filter and a second filter. It is characterized by comprising a calculating means for calculating a differential value corresponding to a line segment in a specific direction by filtering, and a control means for controlling a focus state based on the differential value calculated by the calculating means.
[0012]
The first filter may filter the image by a 3 × 3 filter, and the second filter may filter the data filtered by the first filter by a 2 × 2 filter.
[0013]
The plurality of line segments imaged by the imaging unit intersect at a predetermined angle, projecting means for projecting an image of the plurality of line segments onto a lens, and setting means for setting a distance between the projecting means and the lens; The control unit, based on the differential value calculated by the calculation unit, the outline of the line segment included in the image becomes clear, the distance between the projection unit and the lens, It is possible to specify the radius of curvature of the lens for each of the intersection angles of the plurality of line segments based on the specified distance specified for each line segment.
[0014]
The focus control method according to the present invention includes an imaging step of capturing an image of a plurality of line segments, and an image including the image of the plurality of line segments captured by the processing of the imaging step, using a first filter and a second filter. Independently filtering and calculating a differential value corresponding to a line segment in a specific direction, and a control step of controlling a focus state based on the differential value calculated by the processing of the calculating step. Features.
[0015]
In the focus control device and the focus control method according to the present invention, a plurality of line segment images are captured, and an image including the captured plurality of line segment images is independently filtered by the first filter and the second filter. A differential value corresponding to a line segment in a specific direction is calculated, and the focus state is controlled based on the calculated differential value.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 2 shows a configuration of an embodiment of the lens measuring device 10 to which the present invention is applied.
[0017]
In FIG. 2, light emitted from a light source 11 is applied to a contact lens 18 as a measurement target via a condenser lens 12, a reticle 13, a reticle imaging lens 14, a half mirror 15, and an objective lens 16, The reflected light is incident on a CCD (Charged Coupled Device) 21 such as a video camera via the objective lens 16 and the imaging lens 20.
[0018]
The condenser lens 12 focuses the light emitted from the light source 11. The reticle 13 is disposed on the rear focal point Fb 14 of the reticle imaging lens 14 and transmits the light converged by the condenser lens 12. The reticle 13 has, for example, four line segments extending in a vertical direction, a horizontal direction, an oblique upper right direction, and an oblique upper left direction, as shown in FIG. Therefore, the light transmitted through the reticle 13 includes the image of the reticle 13 in FIG. Therefore, the image of the reticle 13 is projected on the contact lens 18.
[0019]
In the following description, as shown in FIG. 3, a vertical line segment is referred to as a line L1, an upper left diagonal line segment is referred to as a line L2, and a horizontal line segment is referred to as a line L3. The line segment in the oblique right direction is referred to as line L4. Line L1 and line L2 intersect at an angle of 45 degrees. Line L2 and line L3 also intersect at an angle of 45 degrees. Line L3 and line L4 also intersect at an angle of 45 degrees. Line L4 and line L1 also intersect at an angle of 45 degrees.
[0020]
The reticle imaging lens 14 converts light including an image of the reticle 13 at the field stop position into parallel light. The light converted into parallel light by the reticle imaging lens 14 enters the half mirror 15. The half mirror 15 reflects parallel light from the reticle imaging lens 14 and makes it incident on the objective lens 16. The objective lens 16 focuses the light reflected by the half mirror 15 on an object plane 19 (in the example of FIG. 2, the front focal point Ff16 of the objective lens 16).
[0021]
At a predetermined position on the stage 17, a contact lens 18 is placed. The stage 17 moves along the optical axis within a predetermined range by driving of the motor 37. When the height of the stage 17 is adjusted so that the contact lens 18 is located on the object plane 19 (described later with reference to FIG. 5), an image of the reticle 13 is formed thereon, and this is observed by the CCD 21. can do. When the contact lens 18 is at a predetermined position (to be described later with reference to FIG. 6), the light once focused on the object surface 19 is incident on the contact lens 18 and is reflected there. Focus on The image at this time can also be monitored by the CCD 21.
[0022]
In the following description, the position of the stage 17 when the stage 17 is closest to the side closer to the objective lens 16 is defined as the origin.
[0023]
Light from an image on the object plane 19 is incident on the objective lens 16, is converted into parallel light, and then is incident on the imaging lens 20 via the half mirror 15. The imaging lens 20 focuses the incident light and forms an image on the CCD 21.
[0024]
The CCD 21 photoelectrically converts the formed light to generate an image signal, and outputs the generated image signal to the A / D converter 22. The A / D converter 22 performs A / D conversion on the image signal output from the CCD 21 and supplies the converted image signal to the image memory 23. The image memory 23 stores the image signal supplied from the A / D converter 22. The image signal stored in the image memory 23 is appropriately read out by the filter unit 24.
[0025]
Although not shown, the operation of the CCD 21 is controlled by the CPU 41 via a predetermined interface.
[0026]
The filter unit 24 reads out an image signal from the image memory 24 and performs filtering to calculate a differential value derived from each line segment of the lines L1 to L4 from the image signal including the image of the reticle 13. The filter unit 24 further performs a predetermined operation on the calculated differential value to calculate a variance value for each of the lines L1 to L4, and supplies the calculated variance value to the RAM 39 via the bus 25. FIG. 4 is a diagram illustrating an example of the internal configuration of the filter unit 24.
[0027]
In FIG. 4, the first filter 101 includes a 3 × 3 filter 121-1 and a 3 × 3 filter 121-2. The 3 × 3 filter 121-1 performs filter processing on the image signal read from the image memory 23, and outputs the processed data to the 2 × 2 filter 131-1A and the 2 × 2 filter 131-1B. Supply. The 3 × 3 filter 121-2 performs a filter process on the image signal read from the image memory 23, and outputs the processed data to the 2 × 2 filter 131-2A and the 2 × 2 filter 131-2B. Supply.
[0028]
The second filter 102 includes a 2 × 2 filter 131-1A and a 2 × 2 filter 131-1B, and a 2 × 2 filter 131-2A and a 2 × 2 filter 131-2B. The 2 × 2 filter 131-1A further performs a filtering process on the data filtered by the 3 × 3 filter 121-1 and supplies the processed data to the variance calculating unit 103-1. The 2 × 2 filter 131-1B further performs a filtering process on the data filtered by the 3 × 3 filter 121-1 and supplies the processed data to the variance calculating unit 103-2. The 2 × 2 filter 131-2A further performs a filtering process on the data filtered by the 3 × 3 filter 121-2, and supplies the processed data to the variance calculating unit 103-3. The 2 × 2 filter 131-2B further performs a filtering process on the data filtered by the 3 × 3 filter 121-2, and supplies the processed data to the variance value calculation unit 103-4.
[0029]
As will be described later in detail, when the image signal is filtered by the 3 × 3 filter 121-1 and further filtered by the 2 × 2 filter 131-1A, a differential value corresponding to the line L1 of the reticle 13 can be obtained. When the image signal is filtered by the 3 × 3 filter 121-1 and further filtered by the 2 × 2 filter 131-1B, a differential value corresponding to the line L2 of the reticle 13 can be obtained. When the image signal is filtered by the 3 × 3 filter 121-2 and further filtered by the 2 × 2 filter 131-2A, a differential value corresponding to the line L3 of the reticle 13 can be obtained. When the image signal is filtered by the 3 × 3 filter 121-2 and further filtered by the 2 × 2 filter 131-2B, a differential value corresponding to the line L4 of the reticle 13 can be obtained.
[0030]
The variance value calculation unit 103-1 calculates the variance value of the data supplied from the 2 × 2 filter 131-1A, and supplies the calculated variance value to the RAM 39. The variance value calculation unit 103-2 calculates the variance value of the data supplied from the 2 × 2 filter 131-1B, and supplies the calculated variance value to the RAM 39. The variance value calculation unit 103-3 calculates the variance value of the data supplied from the 2 × 2 filter 131-2A, and supplies the calculated variance value to the RAM 39. The variance value calculation unit 103-4 calculates the variance value of the data supplied from the 2 × 2 filter 131-2B, and supplies the calculated variance value to the RAM 39.
[0031]
Returning to FIG. 2, a CPU (Central Processing Unit) 41 performs various operations in accordance with a program stored in a ROM (Read Only Memory) 40 or a program loaded into the RAM 39 from the storage unit 35, and performs a filtering operation. The data calculated by the data processing unit 24 is further processed. A RAM (Random Access Memory) 39 stores data and programs necessary for the CPU 41 to execute various processes.
[0032]
The filter unit 24, the RAM 39, the ROM 40, and the CPU 41 are mutually connected via the bus 25. An interface 32 is also connected to the bus 25.
[0033]
The input unit 31 outputs a command from the user to the CPU 41 via the interface (I / F) 32. The display unit 33 includes, for example, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays operation guidance of the lens measurement device 10 and measurement results such as the radius of curvature of the contact lens 18.
[0034]
Also, a drive 34 is connected to the interface 32 as necessary, and a magnetic disk 51, an optical disk 52, a magneto-optical disk 53, a semiconductor memory 54, or the like is appropriately mounted, and a computer program read therefrom is used as needed. It is installed in the storage unit 35 accordingly. The storage unit 35 is configured by a hard disk or the like, stores programs and the like, and reads the programs and the like as appropriate.
[0035]
The motor driver 36 drives the motor 37 in accordance with a command from the CPU 41 via the interface 32. The motor 37 moves the stage 17 on which the contact lens 18 is mounted in the vertical direction (in the direction of contacting and separating from the objective lens 16) in the figure along the optical axis of the objective lens 16 under the control of the motor driver 36. And move it to a predetermined position. The linear scale 38 measures the movement position of the stage 17 and supplies the measured distance to the CPU 41 via the interface 32.
[0036]
Note that the RAM 39, the ROM 40, the CPU 41 and the like can be constituted by a microcomputer.
[0037]
2, the contact lens 18 placed on the stage 17 is moved with respect to the objective lens 16. However, the stage 17 is fixed, and the light source 11, the condenser lens 12, the reticle 13, It goes without saying that the optical system constituted by the reticle imaging lens 14, the half mirror 15, and the objective lens 16 may be moved. The point is that the contact lens 18 may be moved relatively to the optical system.
[0038]
Next, the principle of measuring the radius of curvature of the contact lens 18 will be described with reference to FIGS.
[0039]
FIG. 5 shows a state in which the position of the stage 17 is adjusted such that the back curve BC of the contact lens 18 is located on the object surface 19 on which the image of the reticle 13 is formed. As shown in FIG. 5, when the back curve BC of the contact lens 18 is located on the object plane 19 where the image of the reticle 13 is formed, the light reflected by the back curve BC is focused on the CCD 21. The image of the reticle 13 formed on the CCD 21 has a clear outline. The image at this time is defined as a BC real image for convenience of explanation. At this time, the position of the stage 17 observed by the linear scale 38 is Ir.
[0040]
FIG. 6 shows a state in which the contact lens 18 (stage 17) has been further moved upward by a distance corresponding to the radius of curvature BCR of the back curve BC of the contact lens 18 from the state shown in FIG. As shown in FIG. 6, when the contact lens 18 (stage 17) moves further upward by a distance corresponding to the radius of curvature BCR of the back curve BC of the contact lens 18, the light emitted by the objective lens 16 converges. The (object surface 19) is located at the center of the radius of curvature of the back curve BC of the contact lens 18. As a result, the light reflected by the back curve BC returns on the same optical path as the incident light, and is focused again on the object plane 19. Therefore, even in this case, the image of the reticle 13 formed on the CCD 21 has a clear outline. The image at this time is defined as a BC virtual image (although it is actually a real image) for convenience. The position at this time is defined as Ii.
[0041]
FIG. 7 shows a relative relationship between the position of the contact lens 18 in FIG. 5 and the position of the contact lens 18 in FIG. 7, the contact lens 18 indicated by a dotted line indicates the position of the contact lens 18 illustrated in FIG. 5, and the contact lens 18 indicated by a solid line indicates the position of the contact lens 18 illustrated in FIG. Is shown.
[0042]
7, the parallel light from the reticle 13 emitted from the objective lens 16 is focused on a point P1 in FIG. 7 (corresponding to the object plane 19 in FIGS. 5 and 6). Therefore, when the back curve BC of the contact lens 18 (shown by a dotted line) is located on this point P1 (when it is at the position shown in FIG. 5), the image of the reticle 13 shown in FIG. Will be. The detection position on the linear scale 38 at this time is obtained as Ir.
[0043]
On the other hand, when the contact lens 18 is moved in the direction away from the objective lens 16 by the radius of curvature BCR of the back curve BC (to the position shown in FIG. 6), the point P1 becomes the back curve of the contact lens 18. It will be located at the center of the curvature of BC. As a result, the light passing through the point P1 is vertically incident on the points P2 and P3 of the back curve BC of the contact lens 18, respectively.
[0044]
Therefore, the light reflected at the points P2 and P3 returns on the same optical path as the incident optical path, and is again focused on P1. The image in this state is detected by the CCD 21 as shown in FIG. In this case, the position measured by the linear scale 38 is Ii.
[0045]
As is clear from FIG. 7, the difference (Ii−Ir) between the measurement positions Ir and Ii is equal to the radius of curvature BCR of the back curve. Therefore, from the measurement positions Ir and Ii, the radius of curvature BCR of the back curve BC of the contact lens 18 can be calculated by the following equation (1).
[0046]
BCR = Ii-Ir (1)
[0047]
In order to calculate the radius of curvature BCR of the back curve BC according to the equation (1), it is necessary to specify the measurement positions Ir and Ii. Next, the principle of specifying the measurement positions Ir and Ii will be described with reference to FIGS.
[0048]
As described above, when the relative position between the contact lens 18 and the optical system satisfies a predetermined condition, that is, when the contact lens 18 is at the position shown in FIG. The image of the reticle 13 to be formed should have a clear outline, and the CCD 21 has obtained a focused and clear image as shown in FIG. 8A. 8A, an image a corresponding to the line L1 of the reticle 13 is shown.
[0049]
In the image shown in FIG. 8A, the luminance values of the pixels on one line in a direction perpendicular to the image a (horizontal direction in the figure) are extracted, as shown in FIG. 8B. In the graph of FIG. 8B, the horizontal axis represents the coordinates of each pixel on the line of the extracted data, and the vertical axis represents the luminance value of each pixel on the line. As shown in FIG. 8B, the luminance of the part corresponding to the image a is large, and the luminance of the other parts is a small value. Then, when this luminance data is differentiated and its absolute value is obtained, it becomes as shown in FIG. 8C. That is, the absolute value of the differential value increases in a portion where the luminance shown in FIG. 8B changes from a small value to a large value and in a portion where the luminance changes from a large value to a small value.
[0050]
Such differentiation is performed for all lines in the direction perpendicular to the image a, and the absolute value and the number of the obtained differential values are represented in a histogram as shown in FIG. 9A. In the drawing, the horizontal axis represents the differential value (absolute value), and the vertical axis represents the number of pixels having the differential value of that size (count value).
[0051]
On the other hand, when the relative distance between the contact lens 18 and the optical system does not satisfy the predetermined condition, that is, when the contact lens 18 is at a position other than the positions shown in FIGS. The resulting image is in a so-called out-of-focus state as shown in FIG. 10A. In FIG. 10A, the boundary line of the image a is not clear and is blurred. FIG. 10B shows the change in luminance of such an image. As is apparent from comparison of FIG. 10B with FIG. 8B, in FIG. 10B, the luminance value changes gradually. Therefore, differentiating the values shown in FIG. 10B yields the results shown in FIG. 10C. As is clear from comparison of the graph of FIG. 10C with the graph of FIG. 8C, the magnitude of the differential value is smaller in FIG. 10C.
[0052]
Then, the same processing is performed for all the horizontal lines shown in FIG. 10C, and a histogram of differential values (absolute values) is created, as shown in FIG. 9B. As is clear from the comparison of the histogram of FIG. 9B with the histogram of FIG. 9A, the maximum value of the differential value (absolute value) is smaller in the case of FIG. 9B than in the case of FIG. 9A. Has become.
[0053]
In this way, from the state shown in FIG. 9A and the state shown in FIG. 9B, it can be determined whether or not the image a observed by the CCD 21 is in focus. In order to make this determination, in the present embodiment, the variance of the histogram of the differential values (absolute values) of the entire screen is calculated. That is, the sum of the product of the differential value and the number of pixels (count value) of the differential value of the value is calculated.
[0054]
Then, the calculated variance value is plotted on coordinate axes having the position of the stage 17 and the magnitude of the variance value as the horizontal axis and the vertical axis, respectively. On the graph thus obtained, when the contact lens 18 and the optical system are arranged at a position satisfying a predetermined condition, that is, at a position shown in FIG. 5 or FIG. 6, the dispersion value has a positive peak. That is, two positive peaks are obtained on the graph, the peak in the state of FIG. 5 and the peak in the state of FIG. The position of the stage 11 at the time of this positive peak is Ir or Ii. As can be seen from FIGS. 5 and 6,
Ir <Ii
Therefore, among the positions of the stage 17 at the time of the two peaks, the position of the stage 17 having a longer distance is Ii, and the position of the stage 17 having a short distance is Ir.
[0055]
As described above, Ir and Ii can be specified. Then, by substituting the specified Ir and Ii into equation (1), the radius of curvature BCR of the back curve BC of the contact lens 18 can be obtained.
[0056]
The lens measuring device 10 of FIG. 2 can determine the radius of curvature of the contact lens 18 in a plurality of directions.
[0057]
Next, the curvature radius measuring process of the lens measuring device 10 will be described with reference to the flowcharts of FIGS.
[0058]
In step S1, the CPU 41 determines whether or not the stage 17 is at a predetermined reference position (origin) set in advance. If it is determined that the stage 17 is not at the origin, the process proceeds to step S2. move on.
[0059]
In step S2, the CPU 41 instructs the motor driver 36 to move the stage 17 to the origin. The motor driver 36 drives the motor 37 in accordance with a command from the CPU 41 to move the position of the stage 17 on which the contact lens 18 is placed to the origin. Thereafter, the processing proceeds to step S3.
[0060]
In step S1, when the CPU 41 determines that the stage 17 is at the reference position (origin), the process of step S2 is skipped, and the process proceeds to step S3.
[0061]
In step S <b> 3, the CPU 41 displays, on the display unit 33, a guidance prompting the user to input a measurement range, and receives an input of the measurement range from the input unit 31. That is, as described later, the lens measuring apparatus 10 moves the stage 17 in a direction away from the optical system with respect to the origin, and repeatedly executes a process of capturing an image. The range for executing the process is input here. The user operates the input unit 31 to input a numerical value of the measurement range. The input numerical value of the measurement range is notified from the input unit 31 to the CPU 41 via the interface 32. The CPU 41 causes the RAM 39 to store the notified numerical value of the measurement range.
[0062]
The back curve BC of the contact lens 18 has a predetermined radius of curvature. Now, this radius of curvature is measured, and in consideration of the worst variation in manufacturing the contact lens 18, the measurement range is within a predetermined value range. Therefore, by defining the measurement range in this way, the measurement process can be completed more quickly.
[0063]
If the design value of the contact lens 18 is unknown, the measurement range in step S3 is set to the maximum range that can be measured by the lens measurement device 10.
[0064]
After the process in step S3, the process proceeds to step S4.
[0065]
In step S4, the CPU 41 displays, on the display unit 33, a guide indicating that a measurement start instruction can be accepted, and waits until a measurement start instruction is input from the input unit 31. The user can input a measurement start instruction from the input unit 31. When the measurement start instruction is input by the user, an operation signal corresponding to the measurement start instruction is transmitted from the input unit 31 to the CPU 41. Will be notified. Thereafter, the process proceeds to step S5.
[0066]
In step S5, the CPU 41 turns on the light source 11. Thereafter, the light source 11 remains lit until the measurement is completed. When the light source 11 is turned on, light from the light source 11 is applied to the contact lens 18 via the condenser lens 12, the reticle 13, the reticle imaging lens 14, the half mirror 15, and the objective lens 16. Therefore, an image of the reticle 13 is projected on the contact lens 18. After the process in step S5, the process proceeds to step S6.
[0067]
In step S6, the CPU 41 instructs the motor driver 36 to move the stage 17 to a position (starting end) closest to the origin in the measurement range received in step S3. The motor driver 36 drives the motor 37 in accordance with a command from the CPU 41, and moves the position of the stage 17 on which the contact lens 18 is placed to the start end of the measurement range received in step S3. Thereafter, the processing proceeds to step S7.
[0068]
In step S7, the CPU 41 instructs the A / D converter 22 to A / D convert the image data output from the CCD 21 and capture the image data. The A / D converter 22 performs A / D conversion of an image signal output from the CCD 21 in accordance with a command from the CPU 41, and transfers the image signal to the image memory 23 for storage. After the process in step S7, the process proceeds to step S8.
[0069]
In step S8, the CPU 41 instructs the filter unit 24 to execute a filtering process.
[0070]
Here, the filtering process in step S8 will be described in detail with reference to the flowchart in FIG.
[0071]
In step S51 of FIG. 13, the 3 × 3 filter 121-1 of FIG. 4 reads out the image signal stored in the image memory 23, performs filtering using the following 3 × 3 linear filter, and filters the data after the filter processing. Output to the 2 × 2 filter 131-1A and the 2 × 2 filter 131-1B.
[0072]
(Equation 1)
Figure 2004279368
[0073]
In addition, when the operator of the filter is as follows (the following filter is referred to as filter A),
[0074]
(Equation 2)
Figure 2004279368
[0075]
The arithmetic expression is the following expression (2).
[0076]
Z '(i, j) = aZ (i-1, j-1) + bZ (i, j-1) + cZ (i + 1, j-1) + dZ (i, j-1) + eZ (i, j) + fZ ( i, j + 1) + gZ (i-1, j + 1) + hZ (i, j + 1) + iZ (i + 1, j + 1) (2)
[0077]
In equation (2), Z (i, j) is a pixel at coordinates (i, j), and Z (i-1, j-1) is a pixel at coordinates (i-1, j-1). , Z (i, j−1) is a pixel at coordinates (i, j−1), Z (i + 1, j−1) is a pixel at coordinates (i + 1, j−1), and Z (i, j). -1) is a pixel at coordinates (i, j-1), Z (i, j + 1) is a pixel at coordinates (i, j + 1), and Z (i-1, j + 1) is a pixel at coordinates (i-1, j + 1). (j + 1), Z (i, j + 1) is a pixel at coordinates (i, j + 1), and Z (i + 1, j + 1) is a pixel at coordinates (i + 1, j + 1). Further, in equation (2), Z ′ (i, j) is a value after the transformation of the coordinates (i, j). Z (i-1, j-1), Z (i, j-1), Z (i + 1, j-1), Z (i, j-1), Z (i, j + 1), Z (i-1) , J + 1), Z (i, j + 1), and Z (i + 1, j + 1) are neighboring pixels surrounding Z (i, j).
[0078]
In step S52, the 3 × 3 filter 121-2 of FIG. 4 reads out the image signal stored in the image memory 23, performs filtering using the following 3 × 3 linear filter, and filters the data after the filter processing to 2 × 2. Output to the filter 131-2A and the 2 × 2 filter 131-2B.
[0079]
[Equation 3]
Figure 2004279368
[0080]
In step S53, the 2 × 2 filter 131-1A of FIG. 4 filters the data output by the 3 × 3 filter 121-1 in step S51 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-1.
[0081]
(Equation 4)
Figure 2004279368
[0082]
If the filter operator is as follows,
(Equation 5)
Figure 2004279368
The arithmetic expression is the following expression (3).
[0083]
Z ′ (i, j) = aZ (i, j) + bZ (i + 1, j) + cZ (i, j + 1) + dZ (i + 1, j + 1) (3)
[0084]
In equation (3), Z (i, j) is a pixel at coordinates (i, j), Z (i + 1, j) is a pixel at coordinates (i + 1, j), and Z (i, j + 1) is It is a pixel at coordinates (i, j + 1), and Z (i + 1, j + 1) is a pixel at coordinates (i + 1, j + 1). Further, in equation (3), Z ′ (i, j) is a value after the transformation of the coordinates (i, j).
[0085]
FIG. 14 illustrates an example of data output from the 2 × 2 filter 131-1A. 14, the post-differential data 101 is data filtered by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A. As shown in FIG. 14, the post-differential data 101 is a value obtained by differentiating only the component of the line L1 of the reticle 13. In the actual data, the component corresponding to the line L1 is displayed in white, and the other background portions are displayed in black (the same applies to FIGS. 15 to 17 and FIGS. 20 to 28 described later).
[0086]
In step S54, the 2 × 2 filter 131-1B of FIG. 4 filters the data output by the 3 × 3 filter 121-1 in step S51 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-2.
[0087]
(Equation 6)
Figure 2004279368
[0088]
FIG. 15 illustrates an example of data output from the 2 × 2 filter 131-1B. In FIG. 15, the differential data 111 is data filtered by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1B. As shown in FIG. 15, the differentiated data 111 is a value obtained by differentiating only the component of the line L2 of the reticle 13.
[0089]
In step S55, the 2 × 2 filter 131-2A of FIG. 4 filters the data output by the 3 × 3 filter 121-2 in step S52 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-3.
[0090]
(Equation 7)
Figure 2004279368
[0091]
FIG. 16 illustrates an example of data output from the 2 × 2 filter 131-2A. In FIG. 16, the differential data 121 is data filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A. As shown in FIG. 16, the differentiated data 121 is a value obtained by differentiating only the component of the line L3 of the reticle 13.
[0092]
In step S56, the 2 × 2 filter 131-2B of FIG. 4 filters the data output by the 3 × 3 filter 121-2 in step S52 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-4.
[0093]
(Equation 8)
Figure 2004279368
[0094]
FIG. 17 illustrates an example of data output from the 2 × 2 filter 131-2B. In FIG. 17, the post-differential data 131 is data filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B. As shown in FIG. 17, the differentiated data 131 is a value obtained by differentiating only the component of the line L4 of the reticle 13.
[0095]
As described above, the filtering process is executed, and the differential values respectively corresponding to only the line segments of the lines L1 to L4 are output from the second filter 102.
[0096]
Note that the processes of step S51 and step S52 are executed in the above order for convenience of explanation, but are actually executed simultaneously. In addition, the processing of steps S53 to S56 is also performed in the above order for convenience of description, but is not limited to being actually performed in the order of steps S53 to S56. The processing is executed at the timing when the data is supplied from the first filter 101 at the preceding stage.
[0097]
Returning to FIG. 11, after the filtering process in step S8, the process proceeds to step S9, and the filter unit 24 executes a variance value calculation process. The variance value calculation processing in step S9 will be described with reference to the flowchart in FIG.
[0098]
In step S71, the variance value calculation unit 103-1 calculates the variance value of the differentiated data 101 shown in FIG. 14 and output from the 2 × 2 filter 131-1A in step S53 of FIG. That is, the variance value calculation unit 103-1 first calculates the absolute value of the differentiated data 101 output from the 2 × 2 filter 103-1A, extracts data of all lines in a direction perpendicular to the line L1, and calculates the differential value. The variance of the histogram of (absolute value) is calculated. That is, the sum of the product of the differential value and the number of pixels (count value) of the differential value of the value is calculated. The variance value calculation unit 103-1 supplies the calculated variance value to the CPU 41.
[0099]
In step S72, the variance value calculation unit 103-2 calculates the variance value of the differentiated data 111 shown in FIG. 15 output from the 2 × 2 filter 131-1B in step S54 of FIG. That is, the variance value calculation unit 103-2 first calculates the absolute value of the differentiated data 111 output from the 2 × 2 filter 103-1B, extracts data of all lines perpendicular to the line L2, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-2 supplies the calculated variance value to the CPU 41.
[0100]
In step S73, the variance value calculation unit 103-3 calculates the variance value of the differentiated data 121 shown in FIG. 16 and output from the 2 × 2 filter 131-2A in step S55 of FIG. That is, the variance value calculation unit 103-3 first calculates the absolute value of the differentiated data 121 output from the 2 × 2 filter 103-2A, extracts data of all lines in a direction perpendicular to the line L3, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-3 supplies the calculated variance value to the CPU 41.
[0101]
In step S74, the variance value calculation unit 103-4 calculates the variance value of the differentiated data 131 shown in FIG. 17 output from the 2 × 2 filter 131-2B in step S56 of FIG. That is, the variance calculating unit 103-4 first calculates the absolute value of the differentiated data 131 output from the 2 × 2 filter 103-2B, extracts data of all lines in the direction perpendicular to the line L4, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-4 supplies the calculated variance value to the CPU 41.
[0102]
As described above, the variance value calculation process is executed, and the variance values corresponding to each of the lines L1 to L4 are calculated. In the above description, the processing is performed in the order of steps S71 to S74 for convenience of description, but the processing is not necessarily performed in the order of steps S71 to S74. Each of the value calculation units 103-1 to 103-4 executes a process at a timing when data is supplied from the second filter 102.
[0103]
Returning to FIG. 11, after the variance value calculation processing in step S9, the processing proceeds to step S10, in which the CPU 41 stores the variance values supplied in the processing in step S9 respectively corresponding to the lines L1 to L4 in the RAM 39. Remember. The CPU 41 acquires the distance of the stage 17 supplied from the linear scale 38 at that time, and stores the acquired distance in association with the variance value.
[0104]
After the process in step S10, in step S11, the CPU 41 determines whether or not the entire measurement range has been measured. That is, the CPU 41 reads the value of the position (end portion) farthest from the origin in the measurement range stored in the RAM 39, acquires the distance from the linear scale 38 to the current stage 17, and obtains the current stage 17 It is determined whether or not the position is the end of the measurement range. As a result, if the current position of the stage 17 is not at the end of the measurement range, the process proceeds to step S12.
[0105]
In step S12, the CPU 41 instructs the motor driver 36 to move the stage 17 by one step in a direction away from the objective lens 16. The motor driver 36 drives the motor 37 in accordance with a command from the CPU 41 to move the stage 17 one step away from the objective lens 16.
[0106]
After the process in step S12, the process returns to step S7, and the processes in step S7 and thereafter are repeatedly executed.
[0107]
As described above, while the stage 17 is within the measurement range, the processing of steps S7 to S12 is repeated, and the variance value is stored in the RAM 39 as shown in FIG. FIG. 19 shows an example of the variance value stored in the RAM 39 and the distance to the stage 17.
[0108]
In FIG. 19, the measured steps 1 to N are shown on the far left, and the distance to the stage 17 in each step is shown on the right. Further on the right side, the variance value in each step is shown in the order of line L1, line L2, line L3, and line L4. In this manner, the distance to the stage 17 and the variance values corresponding to the lines L1 to L4 are stored in the RAM 39 in association with each step. In FIG. 19, the distances to the stage 17 are all indicated by “**”, but actually, the distances to the stage 17 measured by the linear scale 38 are recorded. Further, in FIG. 19, the variance values are all indicated by “***”, but actually, the variance values supplied from the filter unit 24 are recorded.
[0109]
Returning to FIG. 11, when the CPU 41 determines in step S11 that the current position of the stage 17 is at the end of the measurement range, the process proceeds to step S13 in FIG.
[0110]
In step S13, the CPU 41 selects a line segment for calculating the curvature radius BCR from the lines L1 to L4. In step S14, the CPU 41 reads a variance value corresponding to the line segment selected in step S13 and a distance to the stage 17 corresponding to the variance value, and executes a noise component removal process. That is, the CPU 41 performs processing such as FFT (Fast Fourier Transform) to remove noise components due to high-frequency components. Thereafter, the process proceeds to step S15.
[0111]
In step S15, the CPU 41 calculates the peak position of the data (variance) from which the noise component has been removed in step S14 by calculation.
[0112]
That is, in step S9, the variance value stored in the RAM 39 and the noise component removed in step S14 is obtained by plotting the position and the magnitude of the variance value on the coordinate axis with the horizontal axis and the vertical axis of the stage 17 respectively. On the graph, when the contact lens 18 and the optical system are arranged at positions satisfying predetermined conditions (positions shown in FIGS. 5 and 6), the dispersion value has a positive peak. Therefore, in order to detect the positive peak position of the variance, the CPU 41 executes, for example, a process of differentiating the variance. At the positive peak position, this differential value changes from positive to negative. Accordingly, the CPU 41 detects the zero-cross point at which the differential value changes from positive to negative, thereby obtaining the position of the stage 17 when the contact lens 18 and the optical system are arranged at predetermined positions, that is, Ir and Ii. .
[0113]
After the processing in step S15, in step S16, the CPU 41 substitutes the value calculated in step S15 into the equation (1), thereby obtaining the back curve BC of the contact lens 18 corresponding to the line segment selected in step S13. Is calculated. The CPU 41 stores the calculated radius of curvature BCR in the RAM 39 in association with the line segment.
[0114]
After the process in step S16, in step S17, the CPU 41 determines whether the curvature radii BCR corresponding to all the line segments from the line L1 to the line L4 have been calculated, and determines the curvature radius BCR corresponding to all the line segments. If the calculation of has not been completed (there is a line segment that has not been calculated yet), the process returns to step S13, and the above-described processes from step S13 are repeated. In the second and subsequent steps S13, the already selected line segment is not selected.
[0115]
If the CPU 41 determines in step S17 that the curvature radii BCR corresponding to all the line segments from the line L1 to the line L4 have been calculated, the process proceeds to step S18.
[0116]
In step S18, the CPU 41 reads the radius of curvature BCR calculated in step S16 from the RAM 39, and causes the display unit 33 to display the radius of curvature BCR corresponding to each of the lines L1 to L4. This allows the user to know the four values of the radius of curvature BCR measured at intervals of 45 degrees. In accordance with an instruction from the input unit 31, the CPU 41 stores the calculated radius of curvature in the storage unit 35, or stores the calculated radius of curvature in the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 via the drive 34. It is also possible to record.
[0117]
As described above, the curvature radius measuring process of the lens measuring device 10 is executed. By executing the above-described processing, it is possible to measure the radii of curvature in a plurality of directions.
[0118]
Further, the line segment included in the reticle 13 is regarded as only two orthogonal line segments (eliminating components in oblique directions), and first, the radii of curvature in two directions orthogonal to each other at an angle of 90 degrees are measured. Thereafter, when the reticle 13 is rotated by 45 degrees and the radius of curvature in two directions intersecting with the first measured radius of curvature at an angle of 45 degrees is measured, the number of measurements is doubled. According to this, it is possible to measure the radii of curvature in a plurality of different directions without increasing the number of measurements. Therefore, it is possible to prevent the measurement time from becoming long.
[0119]
By the way, in the present invention, in order to calculate the differential value corresponding to each of the lines L1 to L4, the 3 × 3 filter 121-1 and the 3 × 3 filter 121-2 and the 2 × 2 filters 131-1A and 21-1 are used. The image signal is filtered by the × 2 filter 131-1B, the 2 × 2 filter 131-2A, and the 2 × 2 filter 131-2B.
[0120]
As described above, the calculation by the two filters of the first filter and the second filter to calculate the differential values corresponding to each of the lines L1 to L4 is based on the following experimental results.
[0121]
First, the result of filtering using only a 3 × 3 filter will be described.
[0122]
The video / image processing LSI / module data book separate volume 1997-1998 (Sumitomo Metal Industries, Ltd., page 573) states that horizontal lines can be detected by the following filter (the following filter is referred to as filter 1). I was
[0123]
(Equation 9)
Figure 2004279368
[0124]
Then, when the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is filtered by the filter 1, the result shown in FIG. 20 is obtained. In FIG. 20, the vertical line corresponding to the line L1 is deleted, but the line segments corresponding to the lines L2 and L4 remain without being deleted. Further, when the directional components of the filter corresponding to the erased line L1 are added, −1 + 2 + (− 1) = 0.
[0125]
Next, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 2).
[0126]
(Equation 10)
Figure 2004279368
[0127]
As in the case of the filter 1, the result is as shown in FIG. However, in the filter 2, the line segments corresponding to the line L3 and the line L4 are displayed lighter than the case where the filtering is performed by the filter 1. Further, when the directional components of the filter corresponding to the erased line L1 are added, −1 + 2 + (− 1) = 0.
[0128]
Next, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 3).
[0129]
[Equation 11]
Figure 2004279368
[0130]
The result was as shown in FIG. In FIG. 21, the line segment corresponding to the line L3 has been deleted. Further, when the direction components of the filter corresponding to the erased line L3 are added, 0 + 0 + 0 = 0.
[0131]
Next, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 4).
[0132]
(Equation 12)
Figure 2004279368
[0133]
The result was as shown in FIG. In FIG. 22, the line segment corresponding to the line L2 has been deleted. Further, when the directional components of the filter corresponding to the erased line L2 are added, 0 + 0 + 0 = 0. In FIG. 22, negative values are ignored. Similarly, when filtering is performed by the filter 4 and the absolute value of the value after the filtering is obtained, a result as illustrated in FIG. 23 is obtained. In FIG. 23 as well, the line segment corresponding to the line L2 is deleted as in FIG.
[0134]
Next, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 5).
[0135]
(Equation 13)
Figure 2004279368
[0136]
The result was as shown in FIG. In FIG. 24, the line segments corresponding to the lines L1 and L3 have been deleted. Further, when the direction components of the filter corresponding to the erased line L1 are added, 1 + (− 2) + 1 = 0. Further, when the directional components of the filter corresponding to the erased line L3 are added, 1 + (− 2) + 1 = 0. In addition, when filtering is performed by the filter 5, the line segment corresponding to the line L2 is actually displayed lightly.
[0137]
Next, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 6).
[0138]
[Equation 14]
Figure 2004279368
[0139]
As in the case of the filter 5, the result as shown in FIG. 24 was obtained. Further, when the directional components of the filter corresponding to the erased line L1 are added, (−1) +2 + (− 1) = 0. Further, when the directional components of the filter corresponding to the erased line L3 are added, (−1) +2 + (− 1) = 0.
[0140]
The image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 7).
[0141]
(Equation 15)
Figure 2004279368
[0142]
As in the case of the filter 5 and the filter 6, the result is as shown in FIG. From the above, it was found that the line segments corresponding to the line L1 and the line L3 can be deleted by the filters 5 to 7. Further, when the directional component of the filter corresponding to the erased line L1 is added, 0 + 0 + 0 = 0, and when the directional component of the filter corresponding to the erased line L3 is added, 0 + 0 + 0 = 0.
[0143]
The image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 8).
[0144]
(Equation 16)
Figure 2004279368
[0145]
The result was as shown in FIG. In FIG. 25, the line segments corresponding to the lines L2 and L4 have been deleted. The sum of the directional components of the filter corresponding to the line L2 is 0 + 0 + 0 = 0, and the sum of the directional components of the filter corresponding to the line L4 is 0 + 0 + 0 = 0.
[0146]
The image signal generated by the CCD 21 and A / D converted by the A / D converter 22 was filtered by the following filter (the following filter is referred to as a filter 9).
[0147]
[Equation 17]
Figure 2004279368
[0148]
The result was as shown in FIG. In FIG. 26, the line segments corresponding to the lines L1 and L4 have been deleted. Further, when the direction components of the filter corresponding to the line L1 are added, (−1) +2 + (− 1) = 0, and when the direction components corresponding to the line L4 are added, (−1) +2 + (− 1) = 0. It becomes.
[0149]
First, as a result of the above experiment, it was found that the direction component corresponding to two line segments can be eliminated by filtering with a 3 × 3 filter. Further, it was found that the sum of the filter coefficients in the direction of the line segment to be erased was 0.
[0150]
That is, with reference to the above-described filter A, when the line segment corresponding to the line L1 is deleted, b + e + h = 0, and when the line segment corresponding to the line L2 is deleted, a + e + i = 0. , D + e + f = 0 when the line segment corresponding to the line L3 is erased, and g + e + c = 0 when the line segment corresponding to the line L4 is erased.
[0151]
However, it is difficult for a 3 × 3 filter to simultaneously eliminate components in three directions. Therefore, an experiment was conducted on a method in which components in two directions were eliminated by the first filter, and the remaining components in one direction were eliminated by the second filter.
[0152]
For example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by a 3 × 3 filter 121-2, and data filtered by the 3 × 3 filter 121-2 is processed. Further, filtering was performed by the following filter (the following filter is referred to as a filter 10).
[0153]
(Equation 18)
Figure 2004279368
[0154]
The result was as shown in FIG. In FIG. 27, the line segments corresponding to the lines L1 and L2 have been deleted.
[0155]
Further, for example, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the following filter. (The following filter is referred to as filter 11).
[0156]
[Equation 19]
Figure 2004279368
[0157]
The result was as shown in FIG. However, the line segment corresponding to the line L4 is displayed lighter than the case where the line segment is filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B.
[0158]
Further, for example, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-1 and the data filtered by the filter 121-1 is further filtered by the following filter. (The following filter is referred to as a filter 12).
[0159]
(Equation 20)
Figure 2004279368
[0160]
The result was as shown in FIG. In FIG. 28, the line segments corresponding to the lines L3 and L4 have been deleted.
[0161]
Further, an experiment of filtering by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A employed as the filter of the filter unit 24 was performed, and the result as shown in FIG. 14 was obtained. In addition, an experiment of filtering using the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1B was performed, and the result shown in FIG. 15 was obtained. In addition, when an experiment of filtering with the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A was performed, the result as shown in FIG. 16 was obtained. In addition, when an experiment of filtering with the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B was performed, the result as shown in FIG. 17 was obtained.
[0162]
Based on the above experimental results, in the present invention, the components corresponding to the line L1 are extracted by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A, and the 3 × 3 filters 121-1 and 2 × The component corresponding to the line L2 is extracted by the 2 filter 131-1B, the component corresponding to the line L3 is extracted by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A, and the 3 × 3 filter 121- The components corresponding to the line L4 are extracted by the 2 and 2 × 2 filters 131-2B.
[0163]
In addition, after filtering by a 3 × 3 filter, an experiment of further filtering by a 3 × 3 filter was also performed. However, noise was increased as compared with the case where the filter employed in the present invention was used. Not adopted.
[0164]
For example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the following filter ( The following filter is referred to as filter 13).
[0165]
(Equation 21)
Figure 2004279368
[0166]
The result was as shown in FIG.
[0167]
Further, for example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the filter 1. After filtering, a result as shown in FIG. 27 was obtained.
[0168]
Further, for example, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the following filter. (The following filter is referred to as a filter 14).
[0169]
(Equation 22)
Figure 2004279368
[0170]
The result was as shown in FIG. However, there was more noise than when filtering was performed by the filters 121-2 and 131-2A.
[0171]
Further, for example, the image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the following filter. (The following filter is referred to as filter 15).
[0172]
[Equation 23]
Figure 2004279368
[0173]
The result was as shown in FIG. However, there was more noise than when filtering was performed by the filters 121-2 and 131-2A.
[0174]
Further, for example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 121-2, and the data filtered by the filter 121-2 is further filtered by the filter 7. Filtered. The result was as shown in FIG. However, there was more noise than when filtering was performed by the filters 121-2 and 131-2B.
[0175]
An experiment of filtering with a 5 × 5 filter was also performed. For example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is filtered by the following filter (the following filter is referred to as a filter 16).
[0176]
(Equation 24)
Figure 2004279368
[0177]
The result was as shown in FIG.
[0178]
Further, an experiment was conducted in which data filtered by a 5 × 5 filter was further filtered by a 3 × 3 filter. For example, an image signal generated by the CCD 21 and A / D converted by the A / D converter 22 is first filtered by the filter 16, and the data filtered by the filter 16 is further filtered by the following filter (the following filter is used). Filter 17).
[0179]
(Equation 25)
Figure 2004279368
[0180]
The result was as shown in FIG.
[0181]
As described above, as a result of the experiment, in order to eliminate components other than the line segment corresponding to the line L1, it is preferable to perform filtering using the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A. I found out. In addition, in order to eliminate components other than the line segment corresponding to the line L2, it has been found that it is better to perform filtering using the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1B. In addition, in order to eliminate components other than the line segment corresponding to the line L3, it has been found that it is better to perform filtering using the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A. In addition, in order to eliminate components other than the line segment corresponding to the line L4, it has been found that it is preferable to perform filtering using the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B.
[0182]
Based on the above experimental results, in the present invention, a first filter 101 and a second filter as shown in FIG. 4 are provided.
[0183]
As described above, according to the present invention, it is possible to measure the radius of curvature of the contact lens 18 from a plurality of directions without increasing the number of measurements. Therefore, it is possible to prevent the measurement time from increasing.
[0184]
In this specification, a step of describing a program recorded on a recording medium is not limited to a process performed in a chronological order according to the described order. Alternatively, the processing includes individually executed processing.
[0185]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0186]
【The invention's effect】
As described above, according to the present invention, the radius of curvature of a lens can be measured. Further, according to the present invention, it is possible to measure the radius of curvature of the lens from a plurality of directions without changing the measurement time as in the related art.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a measurement direction of a radius of curvature of a contact lens.
FIG. 2 is a diagram illustrating a configuration example of a lens measuring device to which the present invention has been applied.
FIG. 3 is a diagram showing a configuration example of a reticle of FIG. 2;
FIG. 4 is a diagram illustrating a configuration example of a filter unit in FIG. 2;
FIG. 5 is a diagram illustrating a position of an image formed by light from a back curve of a contact lens.
FIG. 6 is another diagram illustrating the position of an image formed by light from the back curve of the contact lens.
FIG. 7 is a diagram illustrating the principle of obtaining the radius of curvature of the back curve of a contact lens.
8 is a diagram illustrating a method for specifying the position of the stage shown in FIGS. 5 and 7. FIG.
FIG. 9 is another diagram for explaining the method of specifying the position of the stage shown in FIGS. 5 and 7;
FIG. 10 is yet another diagram for explaining the method of specifying the position of the stage shown in FIGS. 5 and 7;
FIG. 11 is a flowchart illustrating a curvature radius measurement process of the lens measurement device.
FIG. 12 is a flowchart illustrating the radius of curvature measurement process of the lens measuring device, continued from FIG. 11;
FIG. 13 is a flowchart illustrating the process in step S8 of FIG. 11 in detail.
FIG. 14 is a diagram illustrating an example of filtered data.
FIG. 15 is another diagram illustrating an example of filtered data.
FIG. 16 is yet another diagram showing an example of filtered data.
FIG. 17 is a diagram illustrating an example of filtered data.
FIG. 18 is a flowchart illustrating the process of step S9 in FIG. 11 in detail.
FIG. 19 is a diagram illustrating an example of data stored in a RAM.
FIG. 20 is a diagram showing an example of an experimental result.
FIG. 21 is another diagram showing an example of an experimental result.
FIG. 22 is still another diagram showing an example of the experimental result.
FIG. 23 is a diagram illustrating an example of an experimental result.
FIG. 24 is another diagram showing an example of an experimental result.
FIG. 25 is still another diagram showing an example of the experimental result.
FIG. 26 is a diagram showing an example of an experimental result.
FIG. 27 is another diagram showing an example of an experimental result.
FIG. 28 is still another diagram showing an example of the experimental result.
[Explanation of symbols]
10 Lens measuring device
11 Light source
12 Condenser lens
13 Reticle
14 Reticle imaging lens
15 Half mirror
16 Objective lens
17 stages
18 contact lenses
19 Object plane
20 Imaging lens
21 CCD
22 A / D converter
23 Image memory
24 Filter section
37 motor
38 Linear scale
39 RAM
40 ROM
41 CPU
101 First filter
102 Second filter
103-1 to 103-4 variance value calculation unit

Claims (4)

フォーカス状態を制御するフォーカス制御装置において、
複数の線分の像を撮像する撮像手段と、
前記撮像手段により撮像された前記複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の前記線分に対応する微分値を算出する算出手段と、
前記算出手段により算出された前記微分値に基づいて、フォーカス状態を制御する制御手段と
を備えることを特徴とするフォーカス制御装置。
In a focus control device that controls a focus state,
Imaging means for capturing images of a plurality of line segments;
An image including an image of the plurality of line segments captured by the imaging unit is independently filtered by a first filter and a second filter to calculate a differential value corresponding to the line segment in a specific direction. Calculating means;
A focus control device comprising: a control unit that controls a focus state based on the differential value calculated by the calculation unit.
前記第1のフィルタは、3×3のフィルタにより前記画像をフィルタリングし、
前記第2のフィルタは、前記第1のフィルタによりフィルタリングされたデータを、2×2のフィルタによりフィルタリングする
ことを特徴とする請求項1に記載のフォーカス制御装置。
The first filter filters the image with a 3 × 3 filter;
The focus control device according to claim 1, wherein the second filter filters data filtered by the first filter by a 2x2 filter.
前記撮像手段により撮像される前記複数の線分は、所定の角度で交差し、
前記複数の線分の像をレンズに投影する投影手段と、
前記投影手段と前記レンズ間の距離を設定する設定手段と
をさらに備え、
前記制御手段は、前記算出手段により算出された前記微分値に基づいて、前記画像に含まれる前記線分の輪郭が明瞭になる、前記投影手段と前記レンズ間の距離を、前記線分毎に特定し、特定された前記距離に基づいて、前記複数の線分の交差角度ごとの前記レンズの曲率半径を演算する
ことを特徴とする請求項1に記載のフォーカス制御装置。
The plurality of line segments imaged by the imaging unit intersect at a predetermined angle,
Projecting means for projecting the plurality of line segments onto a lens;
Further comprising setting means for setting a distance between the projection means and the lens,
The control means, based on the differential value calculated by the calculation means, the outline of the line segment included in the image becomes clear, the distance between the projection means and the lens, for each line segment The focus control device according to claim 1, wherein a radius of curvature of the lens is calculated for each intersection angle of the plurality of line segments based on the specified distance.
フォーカス状態を制御するフォーカス制御装置のフォーカス制御方法において、
複数の線分の像を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された前記複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の前記線分に対応する微分値を算出する算出ステップと、
前記算出ステップの処理により算出された前記微分値に基づいて、フォーカス状態を制御する制御ステップと
を含むことを特徴とするフォーカス制御方法。
In a focus control method of a focus control device that controls a focus state,
An imaging step of capturing images of a plurality of line segments;
An image including an image of the plurality of line segments captured by the processing of the imaging step is independently filtered by a first filter and a second filter, and a differential value corresponding to the line segment in a specific direction is calculated. A calculating step for calculating;
A control step of controlling a focus state based on the differential value calculated by the processing of the calculation step.
JP2003074949A 2003-03-19 2003-03-19 Focus control device and its method Pending JP2004279368A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003074949A JP2004279368A (en) 2003-03-19 2003-03-19 Focus control device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003074949A JP2004279368A (en) 2003-03-19 2003-03-19 Focus control device and its method

Publications (1)

Publication Number Publication Date
JP2004279368A true JP2004279368A (en) 2004-10-07

Family

ID=33290386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003074949A Pending JP2004279368A (en) 2003-03-19 2003-03-19 Focus control device and its method

Country Status (1)

Country Link
JP (1) JP2004279368A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123139A (en) * 2010-12-08 2012-06-28 Tokai Kogaku Kk Method for evaluating performance of spectacle lens
WO2015051573A1 (en) * 2013-10-11 2015-04-16 杭州奥普特光学有限公司 Hand-held lens surface focal power measuring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123139A (en) * 2010-12-08 2012-06-28 Tokai Kogaku Kk Method for evaluating performance of spectacle lens
WO2015051573A1 (en) * 2013-10-11 2015-04-16 杭州奥普特光学有限公司 Hand-held lens surface focal power measuring device

Similar Documents

Publication Publication Date Title
US9088718B2 (en) Imaging apparatus and control method therefor
JP2008191683A (en) Imaging apparatus and imaging method
JP5800498B2 (en) Automatic focus adjustment device and lens device having the same
JPH09298682A (en) Focus depth extension device
US20170285319A1 (en) Digital microscope and focusing method thereof
JP2009116742A (en) Onboard image processor, image processing method, and program
JP2007114029A (en) Face center position detector, face center position detection method, and program
CN105378534A (en) Imaging device and method for operating imaging device
US9979858B2 (en) Image processing apparatus, image processing method and program
JP5063480B2 (en) Imaging system with autofocus mechanism and adjustment method thereof
JP6737212B2 (en) Driver state estimating device and driver state estimating method
EP3599989A1 (en) High speed pupil detection system and method
JP2010181247A (en) Shape measurement apparatus and shape measurement method
JPH09196621A (en) Focal plane detection method and image input/output device
WO2024055662A1 (en) Near-eye display module inspection method and inspection system
JP4871691B2 (en) Imaging apparatus and control method thereof
JP2004364212A (en) Object photographing apparatus, object photographing method and object photographing program
JP4589646B2 (en) Digital still camera and control method thereof
JP2004279368A (en) Focus control device and its method
JP4996568B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
TW201236448A (en) Auto-focusing camera and method for automatically focusing of the camera
JP5050282B2 (en) Focus detection device, focus detection method, and focus detection program
US8643730B2 (en) Imaging device and image capturing method
TWI588585B (en) Image capture device and focus method
JP4981758B2 (en) Focus adjustment apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081202