JP2004279368A - Focus control device and its method - Google Patents
Focus control device and its method Download PDFInfo
- Publication number
- JP2004279368A JP2004279368A JP2003074949A JP2003074949A JP2004279368A JP 2004279368 A JP2004279368 A JP 2004279368A JP 2003074949 A JP2003074949 A JP 2003074949A JP 2003074949 A JP2003074949 A JP 2003074949A JP 2004279368 A JP2004279368 A JP 2004279368A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- image
- line
- lens
- filtered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing Of Optical Devices Or Fibers (AREA)
- Eyeglasses (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、フォーカス制御装置および方法に関し、例えばコンタクトレンズの曲率半径を測定する場合に用いて好適なフォーカス制御装置および方法に関する。
【0002】
【従来の技術】
コンタクトレンズは、それを使用する使用者の眼に合わせて製造する必要がある。このため、レンズの後方(眼球に接する方)の面(以下の説明において、レンズの後方の面をバックカーブBCと称する)、および前方(眼球に接しない方)の面(以下の説明において、レンズの前方の面をフロントカーブFCと称する)の曲率半径は、個々のレンズ毎に異なっている。製造したコンタクトレンズが、実際に意図するように製造されているか否かを検査するには、このレンズの曲率半径を、個々に測定する必要がある。
【0003】
また、コンタクトレンズの曲面は、球面の一部と一致することが理想的である。しかし、実際に製造されたコンタクトレンズの曲面は、必ずしも球面と一致するとは限らない。そこで、コンタクトレンズの曲面が、球面と一致しているか否かを検査する必要があり、そのために、コンタクトレンズの曲面の中心を通過する、複数の異なる方向の曲率半径を測定する必要がある。図1は、曲率半径を測定する方向の例を表している。
【0004】
図1において、上方には、コンタクトレンズ1を、曲面に対して垂直な方向に切断した場合の断面図が示され、下方には、コンタクトレンズ1の曲面に垂直な方向から、コンタクトレンズ1を見た場合の図が示されている。また、図1において、フロントカーブが、FCとして示され、バックカーブがBCとして示されている。図1のコンタクトレンズ1において、曲率半径を測定する方向は、例えば、線分AE、線分BF、線分CG、および線分DHの4方向である。なお、点Oは、コンタクトレンズ1の曲面の中心を示しており、線分AE、線分BF、線分CG、および線分DHは、いずれも、点Oを通過する。
【0005】
複数の異なる方向の曲率半径を測定するために、放射状の線分を含むターゲット像をコンタクトレンズに投影し、この投影方向と平行な方向にコンタクトレンズを徐々に移動させながら、コンタクトレンズから反射されたターゲット像に含まれている線分のコントラストが最も大きくなる位置を線分毎に特定し、特定した位置に基づいて、複数の方向の曲率半径を求めるようにしたものがある(例えば、特許文献1参照)。なお、特許文献1において、コントラストは、コンタクトレンズから反射されたターゲット像に含まれている線分と、その背景との境界における明るさの変化率として定義されている。
【0006】
【特許文献1】
特開平4−331345号公報(第3ベージ)
【0007】
【発明が解決しようとする課題】
コンタクトレンズから反射されたターゲット像に含まれている線分と、その背景との境界における明るさの変化率は、例えば、水平な線分についての変化率を求める場合、目的の線分を垂直微分することにより求められる。しかしながら、従来、目的の線分を垂直微分しようとすると、目的の線分に対して斜めに交差している線分も水平方向の成分の値を有しているため、斜めに交差した線分の水平成分の値も検出してしまい、目的の線分の明るさの変化率を正確に測定できないという課題があった。結果的に、正確に曲率半径を求められないことがあるという問題があった。
【0008】
この問題を解決するために、ターゲット像に含まれている線分を、直交する2本の線分のみとして(斜め方向の成分を無くして)、まず、90度の角度で直交する2方向の曲率半径を測定し、その後、ターゲット像を45度回転させ、最初に測定された曲率半径と45度の角度で交差する2方向の曲率半径を測定することが考えられる。
【0009】
しかしながら、このようにした場合、測定回数が2倍に増加してしまい、測定時間がかかるという課題があった。
【0010】
本発明はこのような状況に鑑みてなされたものであり、より効率的にレンズの曲率半径を測定することを目的とする。
【0011】
【課題を解決するための手段】
本発明のフォーカス制御装置は、複数の線分の像を撮像する撮像手段と、撮像手段により撮像された複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の線分に対応する微分値を算出する算出手段と、算出手段により算出された微分値に基づいて、フォーカス状態を制御する制御手段とを備えることを特徴とする。
【0012】
第1のフィルタは、3×3のフィルタにより画像をフィルタリングし、第2のフィルタは、第1のフィルタによりフィルタリングされたデータを、2×2のフィルタによりフィルタリングするようにすることができる。
【0013】
前記撮像手段により撮像される前記複数の線分は、所定の角度で交差し、前記複数の線分の像をレンズに投影する投影手段と、投影手段とレンズ間の距離を設定する設定手段とをさらに設けるようにし、前記制御手段には、前記算出手段により算出された前記微分値に基づいて、前記画像に含まれる前記線分の輪郭が明瞭になる、投影手段とレンズ間の距離を、前記線分毎に特定し、特定された距離に基づいて、前記複数の線分の交差角度ごとのレンズの曲率半径を演算するようにさせることができる。
【0014】
本発明のフォーカス制御方法は、複数の線分の像を撮像する撮像ステップと、撮像ステップの処理により撮像された複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の線分に対応する微分値を算出する算出ステップと、算出ステップの処理により算出された微分値に基づいて、フォーカス状態を制御する制御ステップとを含むことを特徴とする。
【0015】
本発明のフォーカス制御装置および方法においては、複数の線分の像が撮像され、撮像された複数の線分の像を含む画像が、第1のフィルタと第2のフィルタにより独立にフィルタリングされて、特定の方向の線分に対応する微分値が算出され、算出された微分値に基づいて、フォーカス状態が制御される。
【0016】
【発明の実施の形態】
図2は、本発明を適用したレンズ測定装置10の一実施の形態の構成を示している。
【0017】
図2においては、光源11より出射された光が、コンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16を介して、測定対象としてのコンタクトレンズ18に照射され、その反射光が、対物レンズ16、および結像レンズ20を介して、ビデオカメラなどのCCD(Charged Coupled Device)21に入射されるようになされている。
【0018】
コンデンサレンズ12は、光源11より出射された光を集束する。レチクル13は、レチクル結像レンズ14の後側焦点Fb14上に配置されており、コンデンサレンズ12により収束された光を透過させる。レチクル13は、例えば図3に示すように、垂直方向、水平方向、右上斜め方向、および左上斜め方向に伸びる4本の線分を有している。よって、レチクル13を透過した光には、図3のレチクル13の像が含まれる。従って、このレチクル13の像がコンタクトレンズ18に投影される。
【0019】
なお、以下の説明においては、図3に示されるように、垂直方向の線分をラインL1と称し、左上斜め方向の線分をラインL2と称し、水平方向の線分をラインL3と称し、右斜め方向の線分をラインL4と称する。ラインL1とラインL2は、45度の角度で交差している。ラインL2とラインL3も、45度の角度で交差している。ラインL3とラインL4もまた、45度の角度で交差している。ラインL4とラインL1も、45度の角度で交差している。
【0020】
レチクル結像レンズ14は、視野絞り位置のレチクル13の像を含む光を平行光に変換する。レチクル結像レンズ14により平行光に変換された光は、ハーフミラー15に入射する。ハーフミラー15は、レチクル結像レンズ14からの平行光を反射し、対物レンズ16に入射させる。対物レンズ16は、ハーフミラー15により反射された光を物体面19(図2の例においては、対物レンズ16の前側焦点Ff16)上に集束させる。
【0021】
ステージ17上の所定の位置には、コンタクトレンズ18が載置されている。ステージ17は、モータ37の駆動により、所定の範囲内で、光軸に沿って移動する。コンタクトレンズ18が物体面19上に位置するように、ステージ17の高さを調整した場合(図5を参照して後述する)、そこにレチクル13の像が結像し、これをCCD21で観測することができる。また、コンタクトレンズ18が所定の位置にある場合(図6を参照して後述する)、物体面19で一旦集束された光はコンタクトレンズ18に入射され、そこで反射されると、再び物体面19に集束する。このときの像も、CCD21でモニタすることができる。
【0022】
なお、以下の説明においては、ステージ17を対物レンズ16に近い側に最も近づけた場合のステージ17の位置を、原点とする。
【0023】
物体面19上の像からの光は、対物レンズ16に入射され、平行光とされた後、ハーフミラー15を介して結像レンズ20に入射される。結像レンズ20は、入入射された光を集束し、CCD21上に結像させる。
【0024】
CCD21は、結像された光を光電変換して画像信号を生成し、生成した画像信号をA/D変換器22に出力する。A/D変換器22は、CCD21より出力された画像信号をA/D変換し、変換した画像信号を画像メモリ23に供給する。画像メモリ23は、A/D変換器22から供給された画像信号を記憶する。画像メモリ23により記憶された画像信号は、フィルタ部24により、適宜読み出される。
【0025】
なお、図示は省略するが、CCD21の動作は、所定のインタフェースを介して、CPU41により制御される。
【0026】
フィルタ部24は、画像メモリ24から、画像信号を読み出し、フィルタリングすることにより、レチクル13の像を含む画像信号から、ラインL1乃至ラインL4のそれぞれの線分由来の微分値を算出する。フィルタ部24は、さらに、算出した微分値に所定の演算を施して、ラインL1乃至ラインL4毎の分散値を算出し、算出された分散値を、バス25を介して、RAM39に供給する。図4は、フィルタ部24の内部の構成例を示す図である。
【0027】
図4において、第1フィルタ101は、3×3フィルタ121−1および3×3フィルタ121−2を含む。3×3フィルタ121−1は、画像メモリ23から読み出された画像信号に対してフィルタ処理を実行し、処理後のデータを、2×2フィルタ131−1Aおよび2×2フィルタ131−1Bに供給する。3×3フィルタ121−2は、画像メモリ23から読み出された画像信号に対してフィルタ処理を実行し、処理後のデータを、2×2フィルタ131−2Aおよび2×2フィルタ131−2Bに供給する。
【0028】
第2フィルタ102は、2×2フィルタ131−1Aおよび2×2フィルタ131−1B、並びに2×2フィルタ131−2Aおよび2×2フィルタ131−2Bを含む。2×2フィルタ131−1Aは、3×3フィルタ121−1によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−1に供給する。2×2フィルタ131−1Bは、3×3フィルタ121−1によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−2に供給する。2×2フィルタ131−2Aは、3×3フィルタ121−2によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−3に供給する。2×2フィルタ131−2Bは、3×3フィルタ121−2によりフィルタ処理されたデータに対して、さらにフィルタ処理を実行し、処理後のデータを、分散値算出部103−4に供給する。
【0029】
詳細は後述するが、画像信号を3×3フィルタ121−1でフィルタリングし、さらに2×2フィルタ131−1Aでフィルタリングすると、レチクル13のラインL1に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−1でフィルタリングし、さらに2×2フィルタ131−1Bでフィルタリングすると、レチクル13のラインL2に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−2でフィルタリングし、さらに2×2フィルタ131−2Aでフィルタリングすると、レチクル13のラインL3に対応する微分値を得ることができる。また、画像信号を3×3フィルタ121−2でフィルタリングし、さらに2×2フィルタ131−2Bでフィルタリングすると、レチクル13のラインL4に対応する微分値を得ることができる。
【0030】
分散値算出部103−1は、2×2フィルタ131−1Aから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−2は、2×2フィルタ131−1Bから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−3は、2×2フィルタ131−2Aから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。分散値算出部103−4は、2×2フィルタ131−2Bから供給されたデータの分散値を算出し、算出した分散値をRAM39に供給する。
【0031】
図2に戻って、CPU(Central Processing Unit)41は、ROM(Read Only Memory)40に記憶されているプログラム、または記憶部35からRAM39にロードされたプログラムに従って、各種の演算を行い、フィルタ部24により演算されたデータをさらに処理するようになされている。RAM(Random Access Memory)39は、CPU41が各種の処理を実行する上において必要なデータやプログラムなどを記憶する。
【0032】
フィルタ部24、RAM39、ROM40、およびCPU41は、バス25を介して相互に接続されている。このバス25にはまた、インタフェース32も接続されている。
【0033】
入力部31は、使用者からの指令をインタフェース(I/F)32を介してCPU41に出力する。表示部33は、例えば、CRT(CathodeRay Tube)またはLCD(Liquid Crystal Display)などにより構成され、レンズ測定装置10の操作案内、およびコンタクトレンズ18の曲率半径などの測定結果を表示する。
【0034】
インタフェース32にはまた、必要に応じてドライブ34が接続され、磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部35にインストールされる。記憶部35は、ハードディスクなどにより構成され、プログラムなどが記憶され、適宜、プログラムなどが読み出される。
【0035】
モータドライバ36は、インタフェース32を介したCPU41からの指令に従って、モータ37を駆動する。モータ37は、モータドライバ36による制御に従って、コンタクトレンズ18が載置されているステージ17を、対物レンズ16の光軸に沿って、図中、上下方向(対物レンズ16と接離する方向)の、所定の位置に移動させる。リニアスケール38は、ステージ17の移動位置を測定し、測定結果の距離をインタフェース32を介してCPU41に供給する。
【0036】
なお、RAM39、ROM40、CPU41などは、マイクロコンピュータにより構成することができる。
【0037】
また、図2の例においては、ステージ17に載置されたコンタクトレンズ18を対物レンズ16に対して移動させるようにしているが、ステージ17を固定し、光源11、コンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16から構成される光学系を移動させるようにしてもよいことはもとよりである。要は、コンタクトレンズ18を光学系に対して相対的に移動させればよい。
【0038】
次に、図5乃至図7を参照して、コンタクトレンズ18の曲率半径の測定の原理について説明する。
【0039】
図5は、コンタクトレンズ18のバックカーブBCが、レチクル13の像が形成されている物体面19上に位置するように、ステージ17の位置を調整した状態を表している。図5に示すように、コンタクトレンズ18のバックカーブBCが、レチクル13の像が形成されている物体面19上に位置するとき、このバックカーブBCで反射された光がCCD21上に集束するので、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなる。このときの像を、説明の便宜上、BC実像と定義する。また、このとき、リニアスケール38により観測されるステージ17の位置を、Irとする。
【0040】
図6は、図5に示す状態から、コンタクトレンズ18のバックカーブBCの曲率半径BCRに対応する距離だけ、コンタクトレンズ18(ステージ17)をさらに上方に移動した状態を表している。図6の示すように、コンタクトレンズ18のバックカーブBCの曲率半径BCRに対応する距離だけ、コンタクトレンズ18(ステージ17)がさらに上方に移動すると、対物レンズ16により出射された光が集束する点(物体面19)が、コンタクトレンズ18のバックカーブBCの曲率半径の中心に位置することになる。その結果、バックカーブBCで反射された光は、そのまま入射した光と同一の光路上を戻り、物体面19に再び集束する。従って、この場合においても、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなる。このときの像を、便宜上、BC虚像(実際には実像であるが)と定義する。また、このときの位置を、Iiとする。
【0041】
図7は、図5におけるコンタクトレンズ18の位置と、図6におけるコンタクトレンズ18の位置の相対関係を表している。図7において、点線で示されたコンタクトレンズ18は、図5に示されたコンタクトレンズ18の位置を示し、実線で示されたコンタクトレンズ18は、図6に示されたコンタクトレンズ18の位置を示している。
【0042】
図7において、対物レンズ16より出射されたレチクル13からの平行光は、図7の点P1(図5および図6における物体面19に対応する)に集束している。従って、この点P1上に、コンタクトレンズ18(点線で図示)のバックカーブBCが位置するとき(図5に示す位置にあるとき)、図5に示したレチクル13の画像がCCD21により検出されることになる。このときのリニアスケール38上の検出位置が、Irとして求められる。
【0043】
これに対して、コンタクトレンズ18を対物レンズ16から離れる方向に、バックカーブBCの曲率半径BCRだけ移動させると(図6に示す位置まで移動させると)、点P1が、コンタクトレンズ18のバックカーブBCの曲率の中心に位置することになる。その結果、点P1を通過した光は、コンタクトレンズ18のバックカーブBCの点P2および点P3にそれぞれ垂直に入射される。
【0044】
このため、点P2および点P3において反射された光は、入射した光路と同一の光路上を戻り、再びP1に集束することになる。この状態における画像が、図6に示す状態として、CCD21により検出される。この場合におけるリニアスケール38による測定位置がIiとなる。
【0045】
図7より明らかなように、測定位置IrとIiの差(Ii−Ir)は、バックカーブの曲率半径BCRと等しいことが判る。従って、測定位置IrとIiから、コンタクトレンズ18のバックカーブBCの曲率半径BCRは、以下の式(1)により算出することができる。
【0046】
BCR=Ii−Ir (1)
【0047】
式(1)によりバックカーブBCの曲率半径BCRを算出するためには、測定位置IrとIiを特定する必要がある。次に、図8乃至図11を参照して、測定位置IrとIiを特定する原理について説明する。
【0048】
上述したように、コンタクトレンズ18と光学系の相対的位置が、所定の条件を満足している場合、すなわちコンタクトレンズ18が図5または図6に示された位置にある場合、CCD21上に結像するレチクル13の像は、その輪郭が明瞭なものとなるはずであり、CCD21には、図8Aに示すようなピントの合った鮮明な画像が得られている。図8Aにおいては、レチクル13のラインL1に対応する画像aが表されている。
【0049】
この図8Aに示す画像において、画像aに対して垂直な方向(図中横方向)の1本のライン上の画素の輝度値を取り出すと、図8Bに示すようになる。図8Bのグラフは、横軸が、取り出されたデータのライン上の各画素の座標を表し、縦軸が、ライン上の各画素における輝度値を表している。図8Bに示されるように、画像aに対応する部分の輝度が大きく、それ以外の部分の輝度は小さい値となっている。そこで、この輝度データを微分し、その絶対値を得ると、図8Cに示すようになる。即ち、図8Bに示す輝度が、小さい値から大きい値に変化する部分と、大きな値から小さな値に変化する部分とにおいて、微分値の絶対値が大きくなる。
【0050】
このような微分を、画像aと垂直な方向の全てのラインについて行い、得られた微分値の絶対値とその数をヒストグラムに表すと、図9Aに示すようになる。同図において、横軸が微分値(絶対値)を表し、縦軸が、その大きさの微分値を有する画素の数(カウント値)を表している。
【0051】
一方、コンタクトレンズ18と光学系の相対的距離が、所定の条件を満足していない場合、すなわちコンタクトレンズ18が図5および図6に示された位置以外の位置にある場合、CCD21により観測される画像は、図10Aに示すように、所謂ピンボケの状態となる。図10Aは、画像aの境界線が、明瞭でなく、ぼやけている。このような画像の輝度の変化を表すと、図10Bに示すようになる。この図10Bを、図8Bと比較して明らかなように、図10Bにおいては、輝度の値が緩やかに変化している。このため、この図10Bに示す値を微分すると、図10Cに示すような結果が得られる。この図10Cのグラフを、図8Cのグラフと比較して明らかなように、微分値の大きさが、図10Cの方が小さい値となっている。
【0052】
そして、図10Cに示す全ての水平方向のラインについて同様の処理を行い、微分値(絶対値)のヒストグラムを作成すると、図9Bに示すようになる。この図9Bのヒストグラムを、図9Aに示すヒストグラムと比較して明らかなように、図9Bに示す場合の方が、微分値(絶対値)の最大値が、図9Aに示す場合より小さい値となっている。
【0053】
このように、図9Aに示す状態と、図9Bに示す状態から、CCD21により観測される画像aが、ピントが合っている状態にあるのか否かを判定することができる。この判定を行うため、本実施の形態においては、全画面の微分値(絶対値)のヒストグラムの分散値を演算する。即ち、微分値と、その値の微分値の画素の数(カウント値)の積の和を演算する。
【0054】
そして、算出した分散値を、ステージ17の位置と分散値の大きさをそれぞれ横軸と縦軸とする座標軸上にプロットする。こうして得られるグラフ上において、コンタクトレンズ18と光学系が所定の条件を満たす位置、すなわち図5または図6に示される位置に配置されたとき、分散値が正のピークを有することになる。すなわち、グラフ上には、図5の状態におけるピーク、および図6の状態におけるピークの、2つの正のピークが得られる。この正のピークのときのステージ11の位置が、IrまたはIiとなる。図5および図6から分かるように、
Ir<Ii
なので、2つのピークのときのステージ17の位置のうち、より距離が長いステージ17の位置のほうがIiであり、距離が短いステージ17の位置の方がIrである。
【0055】
以上のようにして、IrおよびIiを特定することができる。そして、特定したIrおよびIiを、式(1)に代入することにより、コンタクトレンズ18のバックカーブBCの曲率半径BCRを求めることができる。
【0056】
図2のレンズ測定装置10は、コンタクトレンズ18の曲率半径を、複数の方向に対して求めることができる。
【0057】
次に、図11および図12のフローチャートを参照して、レンズ測定装置10の曲率半径測定処理について説明する。
【0058】
ステップS1において、CPU41は、ステージ17が、予め設定してある所定の基準位置(原点)に存在するか否かを判定し、ステージ17が原点に存在しないと判定した場合、処理はステップS2に進む。
【0059】
ステップS2において、CPU41は、モータドライバ36に、ステージ17を原点に移動させるように指令する。モータドライバ36は、CPU41からの指令に従ってモータ37を駆動し、コンタクトレンズ18が載置されているステージ17の位置を原点に移動させる。その後、処理は、ステップS3に進む。
【0060】
ステップS1において、CPU41が、ステージ17は基準位置(原点)に存在すると判定した場合、ステップS2の処理はスキップされ、処理はステップS3に進む。
【0061】
ステップS3において、CPU41は、表示部33に、測定範囲の入力を促す案内を表示し、入力部31からの測定範囲の入力を受け付ける。すなわち、後述するように、レンズ測定装置10は、ステージ17を、原点を基準として光学系から離れる方向に移動させ、画像を取り込む処理を繰り返し実行するのであるが、このステージ17を移動させて測定処理を実行する範囲が、ここにおいて入力される。使用者は、入力部31を操作して、測定範囲の数値を入力する。入力された測定範囲の数値は、入力部31から、インタフェース32を介して、CPU41に通知される。CPU41は、通知された測定範囲の数値を、RAM39に記憶させる。
【0062】
コンタクトレンズ18のバックカーブBCは、所定の曲率半径を有している。いま、この曲率半径を測定するのであるが、コンタクトレンズ18の製造時における最悪のばらつきを考慮すれば、測定範囲は、所定の値の範囲内になる。従って、このように、測定範囲を規定すれば、それだけ測定処理を迅速に完了することができるようになる。
【0063】
コンタクトレンズ18の設計値が不明である場合においては、このステップS3における測定範囲は、このレンズ測定装置10により測定可能な最大の範囲が設定される。
【0064】
ステップS3の処理の後、処理はステップS4に進む。
【0065】
ステップS4において、CPU41は、表示部33に、測定開始の指示を受け付け可能である旨の案内を表示し、入力部31から測定開始の指示が入力されるまで待機する。使用者は、入力部31から、測定開始の指示を入力することができ、使用者により、測定開始の指示が入力された場合、測定開始の指示に対応する操作信号が、入力部31からCPU41に通知される。その後、処理はステップS5に進む。
【0066】
ステップS5において、CPU41は、光源11を点灯させる。これ以降、測定が終了するまで、光源11は点灯しつづける。光源11が点灯することにより、光源11からの光がコンデンサレンズ12、レチクル13、レチクル結像レンズ14、ハーフミラー15、および対物レンズ16を介して、コンタクトレンズ18に照射されるようになる。従って、コンタクトレンズ18には、レチクル13の像が投影される。ステップS5の処理の後、処理はステップS6に進む。
【0067】
ステップS6において、CPU41は、ステップS3で受け付けられた測定範囲のうち、原点に最も近い位置(始端部)に、ステージ17を移動させるように、モータドライバ36に指令する。モータドライバ36は、CPU41からの指令に従ってモータ37を駆動し、コンタクトレンズ18が載置されているステージ17の位置を、ステップS3で受け付けられた測定範囲の始端部に移動させる。その後、処理は、ステップS7に進む。
【0068】
ステップS7において、CPU41は、A/D変換器22に、CCD21が出力する画像データをA/D変換して、取り込むように指令する。A/D変換器22は、CPU41からの指令に従って、CCD21が出力する画像信号をA/D変換し、これを画像メモリ23に転送し、記憶させる。ステップS7の処理の後、処理はステップS8に進む。
【0069】
ステップS8において、CPU41は、フィルタ部24に指令して、フィルタリング処理を実行させる。
【0070】
ここで、ステップS8のフィルタリング処理について、図13のフローチャートを参照して、詳細に説明する。
【0071】
図13のステップS51において、図4の3×3フィルタ121−1は、画像メモリ23に記憶された画像信号を読み出し、以下の3×3の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを2×2フィルタ131−1Aおよび2×2フィルタ131−1Bに出力する。
【0072】
【数1】
【0073】
なお、フィルタの演算子が以下のような場合(以下のフィルタをフィルタAとする)、
【0074】
【数2】
【0075】
演算式は、以下の式(2)である。
【0076】
Z’(i,j)=aZ(i−1,j−1)+bZ(i,j−1)+cZ(i+1,j−1)+dZ(i,j−1)+eZ(i,j)+fZ(i,j+1)+gZ(i−1,j+1)+hZ(i,j+1)+iZ(i+1,j+1) (2)
【0077】
式(2)において、Z(i,j)は、座標(i,j)の画素であり、Z(i−1,j−1)は座標(i−1,j−1)の画素であり、Z(i,j−1)は座標(i,j−1)の画素であり、Z(i+1,j−1)は座標(i+1,j−1)の画素であり、Z(i,j−1)は座標(i,j−1)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i−1,j+1)は座標(i−1,j+1)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i+1,j+1)は座標(i+1,j+1)の画素である。また、式(2)において、Z’(i,j)は、座標(i,j)の変換後の値である。Z(i−1,j−1)、Z(i,j−1)、Z(i+1,j−1)、Z(i,j−1)、Z(i,j+1)、Z(i−1,j+1)、Z(i,j+1)、およびZ(i+1,j+1)は、Z(i,j)を取り囲む近傍画素である。
【0078】
ステップS52において、図4の3×3フィルタ121−2は、画像メモリ23に記憶された画像信号を読み出し、以下の3×3の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを2×2フィルタ131−2Aおよび2×2フィルタ131−2Bに出力する。
【0079】
【数3】
【0080】
ステップS53において、図4の2×2フィルタ131−1Aは、3×3フィルタ121−1がステップS51で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−1に出力する。
【0081】
【数4】
【0082】
なお、フィルタの演算子が以下のような場合、
【数5】
演算式は、以下の式(3)である。
【0083】
Z’(i,j)=aZ(i,j)+bZ(i+1,j)+cZ(i,j+1)+dZ(i+1,j+1) (3)
【0084】
式(3)において、Z(i,j)は、座標(i,j)の画素であり、Z(i+1,j)は座標(i+1,j)の画素であり、Z(i,j+1)は座標(i,j+1)の画素であり、Z(i+1,j+1)は座標(i+1,j+1)の画素である。また、式(3)において、Z’(i,j)は、座標(i,j)の変換後の値である。
【0085】
図14は、2×2フィルタ131−1Aから出力されたデータの例を表している。図14において、微分後データ101は、3×3フィルタ121−1および2×2フィルタ131−1Aによりフィルタリングされたデータである。図14に示されるように、微分後データ101は、レチクル13のラインL1の成分のみを微分した値となっている。なお、実際のデータにおいては、ラインL1に対応する成分が白く表示され、それ以外の背景部分が黒く表示されていた(後述する図15乃至図17、並びに図20乃至図28も同様)。
【0086】
ステップS54において、図4の2×2フィルタ131−1Bは、3×3フィルタ121−1がステップS51で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−2に出力する。
【0087】
【数6】
【0088】
図15は、2×2フィルタ131−1Bから出力されたデータの例を表している。図15において、微分後データ111は、3×3フィルタ121−1および2×2フィルタ131−1Bによりフィルタリングされたデータである。図15に示されるように、微分後データ111は、レチクル13のラインL2の成分のみを微分した値となっている。
【0089】
ステップS55において、図4の2×2フィルタ131−2Aは、3×3フィルタ121−2がステップS52で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−3に出力する。
【0090】
【数7】
【0091】
図16は、2×2フィルタ131−2Aから出力されたデータの例を表している。図16において、微分後データ121は、3×3フィルタ121−2および2×2フィルタ131−2Aによりフィルタリングされたデータである。図16に示されるように、微分後データ121は、レチクル13のラインL3の成分のみを微分した値となっている。
【0092】
ステップS56において、図4の2×2フィルタ131−2Bは、3×3フィルタ121−2がステップS52で出力したデータを、以下の2×2の線形フィルタにより、フィルタリングし、フィルタ処理後のデータを分散値算出部103−4に出力する。
【0093】
【数8】
【0094】
図17は、2×2フィルタ131−2Bから出力されたデータの例を表している。図17において、微分後データ131は、3×3フィルタ121−2および2×2フィルタ131−2Bによりフィルタリングされたデータである。図17に示されるように、微分後データ131は、レチクル13のラインL4の成分のみを微分した値となっている。
【0095】
以上のようにして、フィルタリング処理が実行され、ラインL1乃至ラインL4の各線分のみにそれぞれ対応する微分値が、第2フィルタ102から出力される。
【0096】
なお、ステップS51およびステップS52の処理は、説明の便宜上、以上の順番で実行しているが、実際には同時に実行される。また、ステップS53乃至ステップS56の処理も、説明の便宜上、以上の順番で実行しているが、実際には、ステップS53乃至ステップS56の順番で処理が実行されることに限られるものではなく、その前段の第1フィルタ101からデータが供給されたタイミングで、それぞれ処理を実行する。
【0097】
図11に戻って、ステップS8のフィルタリング処理の後、処理はステップS9に進み、フィルタ部24は、分散値算出処理を実行する。ステップS9の分散値算出処理について、図18のフローチャートを参照して説明する。
【0098】
ステップS71において、分散値算出部103−1は、図13のステップS53で、2×2フィルタ131−1Aから出力された、図14に示される微分後データ101の分散値を算出する。すなわち、分散値算出部103−1は、まず2×2フィルタ103−1Aから出力された微分後データ101の絶対値を算出し、ラインL1と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。即ち、微分値と、その値の微分値の画素の数(カウント値)の積の和を演算する。分散値算出部103−1は、算出した分散値を、CPU41に供給する。
【0099】
ステップS72において、分散値算出部103−2は、図13のステップS54で、2×2フィルタ131−1Bから出力された、図15に示される微分後データ111の分散値を算出する。すなわち、分散値算出部103−2は、まず2×2フィルタ103−1Bから出力された微分後データ111の絶対値を算出し、ラインL2と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−2は、算出した分散値を、CPU41に供給する。
【0100】
ステップS73において、分散値算出部103−3は、図13のステップS55で、2×2フィルタ131−2Aから出力された、図16に示される微分後データ121の分散値を算出する。すなわち、分散値算出部103−3は、まず2×2フィルタ103−2Aから出力された微分後データ121の絶対値を算出し、ラインL3と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−3は、算出した分散値を、CPU41に供給する。
【0101】
ステップS74において、分散値算出部103−4は、図13のステップS56で、2×2フィルタ131−2Bから出力された、図17に示される微分後データ131の分散値を算出する。すなわち、分散値算出部103−4は、まず2×2フィルタ103−2Bから出力された微分後データ131の絶対値を算出し、ラインL4と垂直な方向の全ラインのデータを取り出し、微分値(絶対値)のヒストグラムの分散値を演算する。分散値算出部103−4は、算出した分散値を、CPU41に供給する。
【0102】
以上のようにして、分散値算出処理が実行され、ラインL1乃至ラインL4のそれぞれに対応する分散値が算出される。なお、以上の説明においては、説明の便宜上、ステップS71乃至ステップS74の順番で、処理を実行したが、実際には、ステップS71乃至ステップS74の順番で処理が実行されるとは限らず、分散値算出部103−1乃至103−4は、第2フィルタ102からデータが供給されたタイミングで、それぞれ処理を実行する。
【0103】
図11に戻って、ステップS9の分散値算出処理の後、処理はステップS10に進み、CPU41は、ステップS9の処理により供給された、ラインL1乃至ラインL4にそれぞれ対応する分散値を、RAM39に記憶させる。なお、CPU41は、その時点でリニアスケール38から供給されたステージ17の距離を取得し、これを、分散値と対応付けて記憶させる。
【0104】
ステップS10の処理の後、ステップS11において、CPU41は、測定範囲内を全て測定したか否かを判定する。すなわち、CPU41は、RAM39に記憶された測定範囲のうち、原点から最も遠い位置(終端部)の値を読み出すと共に、リニアスケール38から、現在のステージ17までの距離を取得し、現在のステージ17の位置が測定範囲の終端部であるか否かを判定する。その結果、現在のステージ17の位置が測定範囲の終端部ではなかった場合、処理はステップS12に進む。
【0105】
ステップS12において、CPU41は、モータドライバ36に、ステージ17を1ステップだけ、対物レンズ16と離れる方向に移動させるように指令する。モータドライバ36は、CPU41からの指令に従って、モータ37を駆動し、ステージ17を、1ステップだけ、対物レンズ16と離れる方向に移動させる。
【0106】
ステップS12の処理の後、処理はステップS7に戻り、上述したステップS7以降の処理がくり返し実行される。
【0107】
以上のようにして、ステージ17が測定範囲内にある間、ステップS7乃至ステップS12の処理がくり返され、RAM39には、図19に示されるように、分散値が記憶される。図19は、RAM39に記憶される分散値、およびステージ17までの距離の例を表している。
【0108】
図19において、1番左側には、測定したステップが1乃至Nまで示され、その右隣には、各ステップにおけるステージ17までの距離が示されている。さらにその右側には、各ステップにおける分散値が、ラインL1、ラインL2、ラインL3、およびラインL4の順番で示されている。このように、RAM39には、各ステップ毎に、ステージ17までの距離、およびラインL1乃至ラインL4に対応する分散値が、対応付けられて記憶されている。なお、図19においては、ステージ17までの距離は、全て「**」で示されているが、実際には、リニアスケール38により測定されたステージ17までの距離が記録されている。また、図19においては、分散値は全て「***」で示されているが、実際には、フィルタ部24から供給された分散値が記録されている。
【0109】
図11に戻って、ステップS11において、CPU41が現在のステージ17の位置が測定範囲の終端部であると判定した場合、処理は、図12のステップS13に進む。
【0110】
ステップS13において、CPU41は、ラインL1乃至ラインL4の中から、曲率半径BCRを算出する線分を選択する。ステップS14において、CPU41は、ステップS13で選択された線分に対応する分散値、および分散値に対応するステージ17までの距離を読み出し、ノイズ成分除去処理を実行する。すなわち、CPU41は、例えば、FFT(高速フーリエ変換)などの処理を行い、高周波成分によるノイズ成分を除去する。その後、処理はステップS15に進む。
【0111】
ステップS15において、CPU41は、ステップS14でノイズ成分を除去したデータ(分散)のピーク位置を演算により求める。
【0112】
すなわち、ステップS9で、RAM39に格納し、ステップS14でノイズ成分を除去した分散値を、ステージ17の位置と分散値の大きさをそれぞれ横軸と縦軸とする座標軸上にプロットして得られるグラフ上において、コンタクトレンズ18と光学系が所定の条件を満たす位置(図5および図6に示される位置)に配置されたとき、分散値が正のピークを有することになる。そこで、この分散値の正のピーク位置を検出するために、CPU41は、例えば分散値を微分する処理を実行する。正のピーク位置においては、この微分値が正から負に変化することになる。従って、CPU41は、この微分値の正から負に変化するゼロクロス点を検出することで、コンタクトレンズ18と光学系が所定の位置に配置されたときのステージ17の位置、すなわちIrおよびIiを求める。
【0113】
ステップS15の処理の後、ステップS16において、CPU41は、ステップS15で算出した値を、式(1)に代入することにより、ステップS13で選択された線分に対応するコンタクトレンズ18のバックカーブBCの曲率半径BCRを算出する。CPU41は、算出した曲率半径BCRを、線分と対応付けてRAM39に記憶させる。
【0114】
ステップS16の処理の後、ステップS17において、CPU41は、ラインL1乃至ラインL4の全ての線分に対応する曲率半径BCRを算出したか否かを判定し、全ての線分に対応する曲率半径BCRの算出が終わっていない場合(まだ算出していない線分があった場合)、処理はステップS13に戻り、上述したステップS13以降の処理をくり返し実行する。なお、2回目以降のステップS13においては、すでに選択された線分は選択されないようになっている。
【0115】
ステップS17において、CPU41が、ラインL1乃至ラインL4の全ての線分に対応する曲率半径BCRを算出したと判定した場合、処理はステップS18に進む。
【0116】
ステップS18において、CPU41は、ステップS16で算出された曲率半径BCRを、RAM39から読み出し、ラインL1乃至ラインL4のそれぞれに対応する曲率半径BCRを、表示部33に表示させる。これにより、使用者は、45度間隔で測定された曲率半径BCRの4つの値を知ることができる。なお、入力部31からの指示に従って、CPU41は、算出された曲率半径を記憶部35に記憶させたり、ドライブ34を介して、磁気ディスク51、光ディスク52、光磁気ディスク53、または半導体メモリ54に記録することも可能である。
【0117】
以上のようにして、レンズ測定装置10の曲率半径測定処理が実行される。以上のような処理を実行することにより、複数の方向の曲率半径を測定することが可能となる。
【0118】
また、レチクル13に含まれている線分を、直交する2本の線分のみとして(斜め方向の成分を無くして)、まず、90度の角度で直交する2方向の曲率半径を測定し、その後、レチクル13を45度回転させ、最初に測定された曲率半径と45度の角度で交差する2方向の曲率半径を測定する場合、測定回数が2倍に増加してしまうが、本発明によれば、測定回数を増加させることなく、複数の異なる方向の曲率半径を測定することができる。従って、測定時間が長時間にならないようにすることができる。
【0119】
ところで、本発明においては、ラインL1乃至ラインL4のそれぞれに対応した微分値を算出するために、3×3フィルタ121−1および3×3フィルタ121−2、2×2フィルタ131−1Aおよび2×2フィルタ131−1B、並びに2×2フィルタ131−2Aおよび2×2フィルタ131−2Bにより、画像信号をフィルタリングしている。
【0120】
このように、第1フィルタおよび第2フィルタの2つのフィルタによりフィルタリングして、ラインL1乃至ラインL4のそれぞれに対応した微分値を算出することは、以下の実験結果を根拠としている。
【0121】
まず、3×3のフィルタのみによるフィルタリングの結果を示す。
【0122】
映像・画像処理LSI/モジュールデータブック別冊1997−1998(住友金属工業株式会社、第573ページ)には、以下のフィルタ(以下のフィルタをフィルタ1とする)により、横線の検出ができると記載されていた。
【0123】
【数9】
【0124】
そこで、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、フィルタ1によりフィルタリングしたところ、図20に示される結果となった。図20においては、ラインL1に対応する縦線は消去されているが、ラインL2およびラインL4に対応する線分は消去されずに残っていた。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、−1+2+(−1)=0となる。
【0125】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ2とする)によりフィルタリングした。
【0126】
【数10】
【0127】
フィルタ1の場合と同様、図20のような結果となった。ただし、フィルタ2においては、ラインL3およびラインL4に対応する線分は、フィルタ1でフィルタリングした場合より、薄く表示された。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、−1+2+(−1)=0となる。
【0128】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ3とする)によりフィルタリングした。
【0129】
【数11】
【0130】
図21に示されるような結果となった。図21においては、ラインL3に対応する線分が消去されている。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0131】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ4とする)によりフィルタリングした。
【0132】
【数12】
【0133】
図22に示されるような結果となった。図22においては、ラインL2に対応する線分が消去されている。また、消去されたラインL2に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。なお、図22においては、負の値を無視している。また、同様に、フィルタ4によりフィルタリングして、フィルタリング後の値の絶対値をとった場合、図23に示されるような結果となった。図23においても、図22と同様、ラインL2に対応する線分が消去されている。
【0134】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ5とする)によりフィルタリングした。
【0135】
【数13】
【0136】
図24に示されるような結果となった。図24においては、ラインL1およびラインL3に対応する線分が消去されている。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、1+(−2)+1=0となる。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、1+(−2)+1=0となる。また、フィルタ5によりフィルタリングした場合、実際には、ラインL2に対応する線分は、薄く表示された。
【0137】
次に、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ6とする)によりフィルタリングした。
【0138】
【数14】
【0139】
フィルタ5の場合と同様、図24に示されるような結果となった。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となる。また、消去されたラインL3に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となる。
【0140】
CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ7とする)によりフィルタリングした。
【0141】
【数15】
【0142】
フィルタ5およびフィルタ6の場合と同様、図24に示されるような結果となった。以上のことより、フィルタ5乃至フィルタ7により、ラインL1およびラインL3に対応する線分を消去することができることが分かった。また、消去されたラインL1に対応するフィルタの方向成分を足し算すると、0+0+0=0となり、消去されたラインL3に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0143】
また、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ8とする)によりフィルタリングした。
【0144】
【数16】
【0145】
図25に示されるような結果となった。図25においては、ラインL2およびラインL4に対応する線分が消去されている。また、ラインL2に対応するフィルタの方向成分を足し算すると、0+0+0=0となり、ラインL4に対応するフィルタの方向成分を足し算すると、0+0+0=0となる。
【0146】
また、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ9とする)によりフィルタリングした。
【0147】
【数17】
【0148】
図26に示されるような結果となった。図26においては、ラインL1およびラインL4に対応する線分が消去されている。また、ラインL1に対応するフィルタの方向成分を足し算すると、(−1)+2+(−1)=0となり、ラインL4に対応する方向成分を足し算すると、(−1)+2+(−1)=0となる。
【0149】
まず、以上の実験の結果、3×3のフィルタでフィルタリングすることにより、2本分の線分に対応する方向成分を消去することができることが分かった。また、消去される線分の方向のフィルタ係数同士を足し算すると、0となることが分かった。
【0150】
すなわち、上述したフィルタAを参照して説明すると、ラインL1に対応する線分が消去される場合、b+e+h=0であり、ラインL2に対応する線分が消去される場合、a+e+i=0であり、ラインL3に対応する線分が消去される場合、d+e+f=0であり、ラインL4に対応する線分が消去される場合、g+e+c=0であることが分かった。
【0151】
しかしながら、3×3のフィルタでは、3方向の成分を同時に消去することは困難である。そこで、1つ目のフィルタにより2方向の成分を消去した後、2つ目のフィルタで、残る1方向の成分を消去する方法を実験した。
【0152】
例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、3×3フィルタ121−2によりフィルタリングし、3×3フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ10とする)によりフィルタリングした。
【0153】
【数18】
【0154】
図27に示されるような結果となった。図27においては、ラインL1およびラインL2に対応する線分が消去されている。
【0155】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ11とする)によりフィルタリングした。
【0156】
【数19】
【0157】
図17に示されるような結果となった。ただし、ラインL4に対応する線分が、3×3フィルタ121−2および2×2フィルタ131−2Bによりフィルタリングした場合より、薄く表示された。
【0158】
また、例えばCCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−1によりフィルタリングし、フィルタ121−1によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ12とする)によりフィルタリングした。
【0159】
【数20】
【0160】
図28に示されるような結果となった。図28においては、ラインL3およびラインL4に対応する線分が消去されている。
【0161】
また、フィルタ部24のフィルタとして採用されている3×3フィルタ121−1および2×2フィルタ131−1Aによるフィルタリングの実験も行なったところ、上述した図14のような結果となった。また、3×3フィルタ121−1および2×2フィルタ131−1Bによるフィルタリングの実験も行なったところ、上述した図15のような結果となった。また、3×3フィルタ121−2および2×2フィルタ131−2Aによるフィルタリングの実験も行なったところ、上述した図16のような結果となった。また、3×3フィルタ121−2および2×2フィルタ131−2Bによるフィルタリングの実験も行なったところ、上述した図17のような結果となった。
【0162】
以上の実験結果に基づいて、本発明においては、3×3フィルタ121−1および2×2フィルタ131−1Aにより、ラインL1に対応する成分を抽出し、3×3フィルタ121−1および2×2フィルタ131−1Bにより、ラインL2に対応する成分を抽出し、3×3フィルタ121−2および2×2フィルタ131−2Aにより、ラインL3に対応する成分を抽出し、3×3フィルタ121−2および2×2フィルタ131−2Bにより、ラインL4に対応する成分を抽出するようにした。
【0163】
なお、3×3のフィルタによりフィルタリングした後、さらに3×3のフィルタでフィルタリングする実験も行なったが、本発明において採用されたフィルタを用いた場合と比較して、ノイズが多くなったので、採用しなかった。
【0164】
例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ13とする)によりフィルタリングした。
【0165】
【数21】
【0166】
図27に示されるような結果となった。
【0167】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、フィルタ1によりフィルタリングしたところ、図27に示されるような結果となった。
【0168】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ14とする)によりフィルタリングした。
【0169】
【数22】
【0170】
図16に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Aによりフィルタリングした場合より、ノイズが多かった。
【0171】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ15とする)によりフィルタリングした。
【0172】
【数23】
【0173】
図16に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Aによりフィルタリングした場合より、ノイズが多かった。
【0174】
また例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ121−2によりフィルタリングし、フィルタ121−2によりフィルタリングされたデータをさらに、フィルタ7によりフィルタリングした。図17に示されるような結果となった。ただし、フィルタ121−2およびフィルタ131−2Bによりフィルタリングした場合より、ノイズが多かった。
【0175】
また、5×5のフィルタによりフィルタリングする実験も行なった。例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、以下のフィルタ(以下のフィルタをフィルタ16とする)によりフィルタリングした。
【0176】
【数24】
【0177】
図28に示されるような結果となった。
【0178】
また、5×5のフィルタによりフィルタリングされたデータをさらに3×3のフィルタでフィルタリングする実験も行なった。例えば、CCD21により生成され、A/D変換器22によりA/D変換された画像信号を、まず、フィルタ16によりフィルタリングし、フィルタ16によりフィルタリングされたデータをさらに、以下のフィルタ(以下のフィルタをフィルタ17とする)によりフィルタリングした。
【0179】
【数25】
【0180】
図28に示されるような結果となった。
【0181】
以上のような、実験の結果、ラインL1に対応する線分以外の成分を消去するためには、3×3のフィルタ121−1、および2×2のフィルタ131−1Aによりフィルタリングすることが良いことが分かった。また、ラインL2に対応する線分以外の成分を消去するためには、3×3のフィルタ121−1、および2×2のフィルタ131−1Bによりフィルタリングすることが良いことが分かった。また、ラインL3に対応する線分以外の成分を消去するためには、3×3のフィルタ121−2、および2×2のフィルタ131−2Aによりフィルタリングすることが良いことが分かった。また、ラインL4に対応する線分以外の成分を消去するためには、3×3のフィルタ121−2、および2×2のフィルタ131−2Bによりフィルタリングすることが良いことが分かった。
【0182】
以上の実験結果に基づいて、本発明においては、図4に示されるような、第1フィルタ101および第2フィルタを設けている。
【0183】
以上のように、本発明によれば、測定回数を増加させることなく、複数の方向から、コンタクトレンズ18の曲率半径を測定することが可能となる。よって、測定時間を増加させないようにすることができる。
【0184】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
【0185】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0186】
【発明の効果】
以上のように、本発明によれば、レンズの曲率半径を測定することができる。また、本発明によれば、測定時間は、従来と変わらないまま、複数の方向から、レンズの曲率半径を測定することができる。
【図面の簡単な説明】
【図1】コンタクトレンズの曲率半径の測定方向を説明する図である。
【図2】本発明を適用したレンズ測定装置の構成例を示す図である。
【図3】図2のレチクルの構成例を示す図である。
【図4】図2のフィルタ部の構成例を示す図である。
【図5】コンタクトレンズのバックカーブからの光により形成される像の位置を説明する図である。
【図6】コンタクトレンズのバックカーブからの光により形成される像の位置を説明する他の図である。
【図7】コンタクトレンズのバックカーブの曲率半径を求める原理を説明する図である。
【図8】図5および図7に示されるステージの位置の特定方法を説明する図である。
【図9】図5および図7に示されるステージの位置の特定方法を説明する他の図である。
【図10】図5および図7に示されるステージの位置の特定方法を説明する、さらに他の図である。
【図11】レンズ測定装置の曲率半径測定処理を説明するフローチャートである。
【図12】レンズ測定装置の曲率半径測定処理を説明する、図11に続くフローチャートである。
【図13】図11のステップS8の処理を詳細に説明するフローチャートである。
【図14】フィルタリングされたデータの例を示す図である。
【図15】フィルタリングされたデータの例を示す他の図である。
【図16】フィルタリングされたデータの例を示す、さらに他の図である。
【図17】フィルタリングされたデータの例を示す図である。
【図18】図11のステップS9の処理を詳細に説明するフローチャートである。
【図19】RAMに記憶されるデータの例を示す図である。
【図20】実験結果の例を示す図である。
【図21】実験結果の例を示す他の図である。
【図22】実験結果の例を示す、さらに他の図である。
【図23】実験結果の例を示す図である。
【図24】実験結果の例を示す他の図である。
【図25】実験結果の例を示す、さらに他の図である。
【図26】実験結果の例を示す図である。
【図27】実験結果の例を示す他の図である。
【図28】実験結果の例を示す、さらに他の図である。
【符号の説明】
10 レンズ測定装置
11 光源
12 コンデンサレンズ
13 レチクル
14 レチクル結像レンズ
15 ハーフミラー
16 対物レンズ
17 ステージ
18 コンタクトレンズ
19 物体面
20 結像レンズ
21 CCD
22 A/D変換器
23 画像メモリ
24 フィルタ部
37 モータ
38 リニアスケール
39 RAM
40 ROM
41 CPU
101 第1フィルタ
102 第2フィルタ
103−1乃至103−4 分散値算出部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a focus control device and method, and more particularly to a focus control device and method suitable for use in measuring a radius of curvature of a contact lens, for example.
[0002]
[Prior art]
Contact lenses must be manufactured for the eyes of the user who uses them. For this reason, the rear surface (the surface in contact with the eyeball) of the lens (the surface behind the lens is referred to as a back curve BC in the following description) and the front surface (the one not in contact with the eyeball) (in the following description, The radius of curvature of the front surface of the lens is referred to as a front curve FC. In order to check whether a manufactured contact lens is actually manufactured as intended, it is necessary to individually measure the radius of curvature of the lens.
[0003]
Ideally, the curved surface of the contact lens coincides with a part of the spherical surface. However, the curved surface of an actually manufactured contact lens does not always match the spherical surface. Therefore, it is necessary to inspect whether or not the curved surface of the contact lens matches the spherical surface, and for that purpose, it is necessary to measure the radii of curvature in a plurality of different directions passing through the center of the curved surface of the contact lens. FIG. 1 shows an example of a direction in which the radius of curvature is measured.
[0004]
In FIG. 1, a cross-sectional view when the
[0005]
In order to measure the radii of curvature in a plurality of different directions, a target image including a radial line segment is projected onto the contact lens, and the target image is reflected from the contact lens while gradually moving the contact lens in a direction parallel to the projection direction. There is a method in which a position where the contrast of a line segment included in a target image is maximized is specified for each line segment, and radii of curvature in a plurality of directions are obtained based on the specified position (for example, see Patent Reference 1). In
[0006]
[Patent Document 1]
JP-A-4-331345 (third page)
[0007]
[Problems to be solved by the invention]
The rate of change in brightness at the boundary between the line segment included in the target image reflected from the contact lens and the background is, for example, when determining the rate of change for a horizontal line segment, the target line segment is vertically It is obtained by differentiating. However, conventionally, when trying to differentiate the target line segment vertically, the line segment obliquely intersecting the target line segment also has the value of the component in the horizontal direction. Has also been detected, and the change rate of the brightness of the target line segment cannot be accurately measured. As a result, there has been a problem that the radius of curvature cannot be accurately obtained.
[0008]
In order to solve this problem, the line segment included in the target image is regarded as only two orthogonal line segments (eliminating the components in the oblique direction), and first, the line segments in the two directions orthogonal to each other at 90 degrees are used. It is conceivable to measure the radius of curvature, then rotate the target image by 45 degrees, and measure the radius of curvature in two directions intersecting the initially measured radius of curvature at an angle of 45 degrees.
[0009]
However, in such a case, the number of measurements is doubled, and there is a problem that the measurement takes a long time.
[0010]
The present invention has been made in view of such a situation, and has as its object to measure the radius of curvature of a lens more efficiently.
[0011]
[Means for Solving the Problems]
The focus control device according to the present invention is configured such that an imaging unit that captures an image of a plurality of line segments, and an image that includes an image of the plurality of line segments captured by the imaging unit are independently generated by a first filter and a second filter. It is characterized by comprising a calculating means for calculating a differential value corresponding to a line segment in a specific direction by filtering, and a control means for controlling a focus state based on the differential value calculated by the calculating means.
[0012]
The first filter may filter the image by a 3 × 3 filter, and the second filter may filter the data filtered by the first filter by a 2 × 2 filter.
[0013]
The plurality of line segments imaged by the imaging unit intersect at a predetermined angle, projecting means for projecting an image of the plurality of line segments onto a lens, and setting means for setting a distance between the projecting means and the lens; The control unit, based on the differential value calculated by the calculation unit, the outline of the line segment included in the image becomes clear, the distance between the projection unit and the lens, It is possible to specify the radius of curvature of the lens for each of the intersection angles of the plurality of line segments based on the specified distance specified for each line segment.
[0014]
The focus control method according to the present invention includes an imaging step of capturing an image of a plurality of line segments, and an image including the image of the plurality of line segments captured by the processing of the imaging step, using a first filter and a second filter. Independently filtering and calculating a differential value corresponding to a line segment in a specific direction, and a control step of controlling a focus state based on the differential value calculated by the processing of the calculating step. Features.
[0015]
In the focus control device and the focus control method according to the present invention, a plurality of line segment images are captured, and an image including the captured plurality of line segment images is independently filtered by the first filter and the second filter. A differential value corresponding to a line segment in a specific direction is calculated, and the focus state is controlled based on the calculated differential value.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 2 shows a configuration of an embodiment of the
[0017]
In FIG. 2, light emitted from a
[0018]
The
[0019]
In the following description, as shown in FIG. 3, a vertical line segment is referred to as a line L1, an upper left diagonal line segment is referred to as a line L2, and a horizontal line segment is referred to as a line L3. The line segment in the oblique right direction is referred to as line L4. Line L1 and line L2 intersect at an angle of 45 degrees. Line L2 and line L3 also intersect at an angle of 45 degrees. Line L3 and line L4 also intersect at an angle of 45 degrees. Line L4 and line L1 also intersect at an angle of 45 degrees.
[0020]
The reticle imaging lens 14 converts light including an image of the
[0021]
At a predetermined position on the
[0022]
In the following description, the position of the
[0023]
Light from an image on the
[0024]
The
[0025]
Although not shown, the operation of the
[0026]
The
[0027]
In FIG. 4, the
[0028]
The
[0029]
As will be described later in detail, when the image signal is filtered by the 3 × 3 filter 121-1 and further filtered by the 2 × 2 filter 131-1A, a differential value corresponding to the line L1 of the
[0030]
The variance value calculation unit 103-1 calculates the variance value of the data supplied from the 2 × 2 filter 131-1A, and supplies the calculated variance value to the
[0031]
Returning to FIG. 2, a CPU (Central Processing Unit) 41 performs various operations in accordance with a program stored in a ROM (Read Only Memory) 40 or a program loaded into the
[0032]
The
[0033]
The
[0034]
Also, a
[0035]
The
[0036]
Note that the
[0037]
2, the
[0038]
Next, the principle of measuring the radius of curvature of the
[0039]
FIG. 5 shows a state in which the position of the
[0040]
FIG. 6 shows a state in which the contact lens 18 (stage 17) has been further moved upward by a distance corresponding to the radius of curvature BCR of the back curve BC of the
[0041]
FIG. 7 shows a relative relationship between the position of the
[0042]
7, the parallel light from the
[0043]
On the other hand, when the
[0044]
Therefore, the light reflected at the points P2 and P3 returns on the same optical path as the incident optical path, and is again focused on P1. The image in this state is detected by the
[0045]
As is clear from FIG. 7, the difference (Ii−Ir) between the measurement positions Ir and Ii is equal to the radius of curvature BCR of the back curve. Therefore, from the measurement positions Ir and Ii, the radius of curvature BCR of the back curve BC of the
[0046]
BCR = Ii-Ir (1)
[0047]
In order to calculate the radius of curvature BCR of the back curve BC according to the equation (1), it is necessary to specify the measurement positions Ir and Ii. Next, the principle of specifying the measurement positions Ir and Ii will be described with reference to FIGS.
[0048]
As described above, when the relative position between the
[0049]
In the image shown in FIG. 8A, the luminance values of the pixels on one line in a direction perpendicular to the image a (horizontal direction in the figure) are extracted, as shown in FIG. 8B. In the graph of FIG. 8B, the horizontal axis represents the coordinates of each pixel on the line of the extracted data, and the vertical axis represents the luminance value of each pixel on the line. As shown in FIG. 8B, the luminance of the part corresponding to the image a is large, and the luminance of the other parts is a small value. Then, when this luminance data is differentiated and its absolute value is obtained, it becomes as shown in FIG. 8C. That is, the absolute value of the differential value increases in a portion where the luminance shown in FIG. 8B changes from a small value to a large value and in a portion where the luminance changes from a large value to a small value.
[0050]
Such differentiation is performed for all lines in the direction perpendicular to the image a, and the absolute value and the number of the obtained differential values are represented in a histogram as shown in FIG. 9A. In the drawing, the horizontal axis represents the differential value (absolute value), and the vertical axis represents the number of pixels having the differential value of that size (count value).
[0051]
On the other hand, when the relative distance between the
[0052]
Then, the same processing is performed for all the horizontal lines shown in FIG. 10C, and a histogram of differential values (absolute values) is created, as shown in FIG. 9B. As is clear from the comparison of the histogram of FIG. 9B with the histogram of FIG. 9A, the maximum value of the differential value (absolute value) is smaller in the case of FIG. 9B than in the case of FIG. 9A. Has become.
[0053]
In this way, from the state shown in FIG. 9A and the state shown in FIG. 9B, it can be determined whether or not the image a observed by the
[0054]
Then, the calculated variance value is plotted on coordinate axes having the position of the
Ir <Ii
Therefore, among the positions of the
[0055]
As described above, Ir and Ii can be specified. Then, by substituting the specified Ir and Ii into equation (1), the radius of curvature BCR of the back curve BC of the
[0056]
The
[0057]
Next, the curvature radius measuring process of the
[0058]
In step S1, the
[0059]
In step S2, the
[0060]
In step S1, when the
[0061]
In step S <b> 3, the
[0062]
The back curve BC of the
[0063]
If the design value of the
[0064]
After the process in step S3, the process proceeds to step S4.
[0065]
In step S4, the
[0066]
In step S5, the
[0067]
In step S6, the
[0068]
In step S7, the
[0069]
In step S8, the
[0070]
Here, the filtering process in step S8 will be described in detail with reference to the flowchart in FIG.
[0071]
In step S51 of FIG. 13, the 3 × 3 filter 121-1 of FIG. 4 reads out the image signal stored in the
[0072]
(Equation 1)
[0073]
In addition, when the operator of the filter is as follows (the following filter is referred to as filter A),
[0074]
(Equation 2)
[0075]
The arithmetic expression is the following expression (2).
[0076]
Z '(i, j) = aZ (i-1, j-1) + bZ (i, j-1) + cZ (i + 1, j-1) + dZ (i, j-1) + eZ (i, j) + fZ ( i, j + 1) + gZ (i-1, j + 1) + hZ (i, j + 1) + iZ (i + 1, j + 1) (2)
[0077]
In equation (2), Z (i, j) is a pixel at coordinates (i, j), and Z (i-1, j-1) is a pixel at coordinates (i-1, j-1). , Z (i, j−1) is a pixel at coordinates (i, j−1), Z (i + 1, j−1) is a pixel at coordinates (i + 1, j−1), and Z (i, j). -1) is a pixel at coordinates (i, j-1), Z (i, j + 1) is a pixel at coordinates (i, j + 1), and Z (i-1, j + 1) is a pixel at coordinates (i-1, j + 1). (j + 1), Z (i, j + 1) is a pixel at coordinates (i, j + 1), and Z (i + 1, j + 1) is a pixel at coordinates (i + 1, j + 1). Further, in equation (2), Z ′ (i, j) is a value after the transformation of the coordinates (i, j). Z (i-1, j-1), Z (i, j-1), Z (i + 1, j-1), Z (i, j-1), Z (i, j + 1), Z (i-1) , J + 1), Z (i, j + 1), and Z (i + 1, j + 1) are neighboring pixels surrounding Z (i, j).
[0078]
In step S52, the 3 × 3 filter 121-2 of FIG. 4 reads out the image signal stored in the
[0079]
[Equation 3]
[0080]
In step S53, the 2 × 2 filter 131-1A of FIG. 4 filters the data output by the 3 × 3 filter 121-1 in step S51 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-1.
[0081]
(Equation 4)
[0082]
If the filter operator is as follows,
(Equation 5)
The arithmetic expression is the following expression (3).
[0083]
Z ′ (i, j) = aZ (i, j) + bZ (i + 1, j) + cZ (i, j + 1) + dZ (i + 1, j + 1) (3)
[0084]
In equation (3), Z (i, j) is a pixel at coordinates (i, j), Z (i + 1, j) is a pixel at coordinates (i + 1, j), and Z (i, j + 1) is It is a pixel at coordinates (i, j + 1), and Z (i + 1, j + 1) is a pixel at coordinates (i + 1, j + 1). Further, in equation (3), Z ′ (i, j) is a value after the transformation of the coordinates (i, j).
[0085]
FIG. 14 illustrates an example of data output from the 2 × 2 filter 131-1A. 14, the
[0086]
In step S54, the 2 × 2 filter 131-1B of FIG. 4 filters the data output by the 3 × 3 filter 121-1 in step S51 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-2.
[0087]
(Equation 6)
[0088]
FIG. 15 illustrates an example of data output from the 2 × 2 filter 131-1B. In FIG. 15, the differential data 111 is data filtered by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1B. As shown in FIG. 15, the differentiated data 111 is a value obtained by differentiating only the component of the line L2 of the
[0089]
In step S55, the 2 × 2 filter 131-2A of FIG. 4 filters the data output by the 3 × 3 filter 121-2 in step S52 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-3.
[0090]
(Equation 7)
[0091]
FIG. 16 illustrates an example of data output from the 2 × 2 filter 131-2A. In FIG. 16, the differential data 121 is data filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A. As shown in FIG. 16, the differentiated data 121 is a value obtained by differentiating only the component of the line L3 of the
[0092]
In step S56, the 2 × 2 filter 131-2B of FIG. 4 filters the data output by the 3 × 3 filter 121-2 in step S52 using the following 2 × 2 linear filter, and outputs the filtered data. Is output to the variance value calculation unit 103-4.
[0093]
(Equation 8)
[0094]
FIG. 17 illustrates an example of data output from the 2 × 2 filter 131-2B. In FIG. 17, the post-differential data 131 is data filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B. As shown in FIG. 17, the differentiated data 131 is a value obtained by differentiating only the component of the line L4 of the
[0095]
As described above, the filtering process is executed, and the differential values respectively corresponding to only the line segments of the lines L1 to L4 are output from the
[0096]
Note that the processes of step S51 and step S52 are executed in the above order for convenience of explanation, but are actually executed simultaneously. In addition, the processing of steps S53 to S56 is also performed in the above order for convenience of description, but is not limited to being actually performed in the order of steps S53 to S56. The processing is executed at the timing when the data is supplied from the
[0097]
Returning to FIG. 11, after the filtering process in step S8, the process proceeds to step S9, and the
[0098]
In step S71, the variance value calculation unit 103-1 calculates the variance value of the
[0099]
In step S72, the variance value calculation unit 103-2 calculates the variance value of the differentiated data 111 shown in FIG. 15 output from the 2 × 2 filter 131-1B in step S54 of FIG. That is, the variance value calculation unit 103-2 first calculates the absolute value of the differentiated data 111 output from the 2 × 2 filter 103-1B, extracts data of all lines perpendicular to the line L2, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-2 supplies the calculated variance value to the
[0100]
In step S73, the variance value calculation unit 103-3 calculates the variance value of the differentiated data 121 shown in FIG. 16 and output from the 2 × 2 filter 131-2A in step S55 of FIG. That is, the variance value calculation unit 103-3 first calculates the absolute value of the differentiated data 121 output from the 2 × 2 filter 103-2A, extracts data of all lines in a direction perpendicular to the line L3, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-3 supplies the calculated variance value to the
[0101]
In step S74, the variance value calculation unit 103-4 calculates the variance value of the differentiated data 131 shown in FIG. 17 output from the 2 × 2 filter 131-2B in step S56 of FIG. That is, the variance calculating unit 103-4 first calculates the absolute value of the differentiated data 131 output from the 2 × 2 filter 103-2B, extracts data of all lines in the direction perpendicular to the line L4, and The variance of the histogram of (absolute value) is calculated. The variance value calculation unit 103-4 supplies the calculated variance value to the
[0102]
As described above, the variance value calculation process is executed, and the variance values corresponding to each of the lines L1 to L4 are calculated. In the above description, the processing is performed in the order of steps S71 to S74 for convenience of description, but the processing is not necessarily performed in the order of steps S71 to S74. Each of the value calculation units 103-1 to 103-4 executes a process at a timing when data is supplied from the
[0103]
Returning to FIG. 11, after the variance value calculation processing in step S9, the processing proceeds to step S10, in which the
[0104]
After the process in step S10, in step S11, the
[0105]
In step S12, the
[0106]
After the process in step S12, the process returns to step S7, and the processes in step S7 and thereafter are repeatedly executed.
[0107]
As described above, while the
[0108]
In FIG. 19, the measured
[0109]
Returning to FIG. 11, when the
[0110]
In step S13, the
[0111]
In step S15, the
[0112]
That is, in step S9, the variance value stored in the
[0113]
After the processing in step S15, in step S16, the
[0114]
After the process in step S16, in step S17, the
[0115]
If the
[0116]
In step S18, the
[0117]
As described above, the curvature radius measuring process of the
[0118]
Further, the line segment included in the
[0119]
By the way, in the present invention, in order to calculate the differential value corresponding to each of the lines L1 to L4, the 3 × 3 filter 121-1 and the 3 × 3 filter 121-2 and the 2 × 2 filters 131-1A and 21-1 are used. The image signal is filtered by the × 2 filter 131-1B, the 2 × 2 filter 131-2A, and the 2 × 2 filter 131-2B.
[0120]
As described above, the calculation by the two filters of the first filter and the second filter to calculate the differential values corresponding to each of the lines L1 to L4 is based on the following experimental results.
[0121]
First, the result of filtering using only a 3 × 3 filter will be described.
[0122]
The video / image processing LSI / module data book separate volume 1997-1998 (Sumitomo Metal Industries, Ltd., page 573) states that horizontal lines can be detected by the following filter (the following filter is referred to as filter 1). I was
[0123]
(Equation 9)
[0124]
Then, when the image signal generated by the
[0125]
Next, the image signal generated by the
[0126]
(Equation 10)
[0127]
As in the case of the
[0128]
Next, the image signal generated by the
[0129]
[Equation 11]
[0130]
The result was as shown in FIG. In FIG. 21, the line segment corresponding to the line L3 has been deleted. Further, when the direction components of the filter corresponding to the erased line L3 are added, 0 + 0 + 0 = 0.
[0131]
Next, the image signal generated by the
[0132]
(Equation 12)
[0133]
The result was as shown in FIG. In FIG. 22, the line segment corresponding to the line L2 has been deleted. Further, when the directional components of the filter corresponding to the erased line L2 are added, 0 + 0 + 0 = 0. In FIG. 22, negative values are ignored. Similarly, when filtering is performed by the
[0134]
Next, the image signal generated by the
[0135]
(Equation 13)
[0136]
The result was as shown in FIG. In FIG. 24, the line segments corresponding to the lines L1 and L3 have been deleted. Further, when the direction components of the filter corresponding to the erased line L1 are added, 1 + (− 2) + 1 = 0. Further, when the directional components of the filter corresponding to the erased line L3 are added, 1 + (− 2) + 1 = 0. In addition, when filtering is performed by the filter 5, the line segment corresponding to the line L2 is actually displayed lightly.
[0137]
Next, the image signal generated by the
[0138]
[Equation 14]
[0139]
As in the case of the filter 5, the result as shown in FIG. 24 was obtained. Further, when the directional components of the filter corresponding to the erased line L1 are added, (−1) +2 + (− 1) = 0. Further, when the directional components of the filter corresponding to the erased line L3 are added, (−1) +2 + (− 1) = 0.
[0140]
The image signal generated by the
[0141]
(Equation 15)
[0142]
As in the case of the filter 5 and the
[0143]
The image signal generated by the
[0144]
(Equation 16)
[0145]
The result was as shown in FIG. In FIG. 25, the line segments corresponding to the lines L2 and L4 have been deleted. The sum of the directional components of the filter corresponding to the line L2 is 0 + 0 + 0 = 0, and the sum of the directional components of the filter corresponding to the line L4 is 0 + 0 + 0 = 0.
[0146]
The image signal generated by the
[0147]
[Equation 17]
[0148]
The result was as shown in FIG. In FIG. 26, the line segments corresponding to the lines L1 and L4 have been deleted. Further, when the direction components of the filter corresponding to the line L1 are added, (−1) +2 + (− 1) = 0, and when the direction components corresponding to the line L4 are added, (−1) +2 + (− 1) = 0. It becomes.
[0149]
First, as a result of the above experiment, it was found that the direction component corresponding to two line segments can be eliminated by filtering with a 3 × 3 filter. Further, it was found that the sum of the filter coefficients in the direction of the line segment to be erased was 0.
[0150]
That is, with reference to the above-described filter A, when the line segment corresponding to the line L1 is deleted, b + e + h = 0, and when the line segment corresponding to the line L2 is deleted, a + e + i = 0. , D + e + f = 0 when the line segment corresponding to the line L3 is erased, and g + e + c = 0 when the line segment corresponding to the line L4 is erased.
[0151]
However, it is difficult for a 3 × 3 filter to simultaneously eliminate components in three directions. Therefore, an experiment was conducted on a method in which components in two directions were eliminated by the first filter, and the remaining components in one direction were eliminated by the second filter.
[0152]
For example, an image signal generated by the
[0153]
(Equation 18)
[0154]
The result was as shown in FIG. In FIG. 27, the line segments corresponding to the lines L1 and L2 have been deleted.
[0155]
Further, for example, the image signal generated by the
[0156]
[Equation 19]
[0157]
The result was as shown in FIG. However, the line segment corresponding to the line L4 is displayed lighter than the case where the line segment is filtered by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B.
[0158]
Further, for example, the image signal generated by the
[0159]
(Equation 20)
[0160]
The result was as shown in FIG. In FIG. 28, the line segments corresponding to the lines L3 and L4 have been deleted.
[0161]
Further, an experiment of filtering by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A employed as the filter of the
[0162]
Based on the above experimental results, in the present invention, the components corresponding to the line L1 are extracted by the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A, and the 3 × 3 filters 121-1 and 2 × The component corresponding to the line L2 is extracted by the 2 filter 131-1B, the component corresponding to the line L3 is extracted by the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A, and the 3 × 3 filter 121- The components corresponding to the line L4 are extracted by the 2 and 2 × 2 filters 131-2B.
[0163]
In addition, after filtering by a 3 × 3 filter, an experiment of further filtering by a 3 × 3 filter was also performed. However, noise was increased as compared with the case where the filter employed in the present invention was used. Not adopted.
[0164]
For example, an image signal generated by the
[0165]
(Equation 21)
[0166]
The result was as shown in FIG.
[0167]
Further, for example, an image signal generated by the
[0168]
Further, for example, the image signal generated by the
[0169]
(Equation 22)
[0170]
The result was as shown in FIG. However, there was more noise than when filtering was performed by the filters 121-2 and 131-2A.
[0171]
Further, for example, the image signal generated by the
[0172]
[Equation 23]
[0173]
The result was as shown in FIG. However, there was more noise than when filtering was performed by the filters 121-2 and 131-2A.
[0174]
Further, for example, an image signal generated by the
[0175]
An experiment of filtering with a 5 × 5 filter was also performed. For example, an image signal generated by the
[0176]
(Equation 24)
[0177]
The result was as shown in FIG.
[0178]
Further, an experiment was conducted in which data filtered by a 5 × 5 filter was further filtered by a 3 × 3 filter. For example, an image signal generated by the
[0179]
(Equation 25)
[0180]
The result was as shown in FIG.
[0181]
As described above, as a result of the experiment, in order to eliminate components other than the line segment corresponding to the line L1, it is preferable to perform filtering using the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1A. I found out. In addition, in order to eliminate components other than the line segment corresponding to the line L2, it has been found that it is better to perform filtering using the 3 × 3 filter 121-1 and the 2 × 2 filter 131-1B. In addition, in order to eliminate components other than the line segment corresponding to the line L3, it has been found that it is better to perform filtering using the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2A. In addition, in order to eliminate components other than the line segment corresponding to the line L4, it has been found that it is preferable to perform filtering using the 3 × 3 filter 121-2 and the 2 × 2 filter 131-2B.
[0182]
Based on the above experimental results, in the present invention, a
[0183]
As described above, according to the present invention, it is possible to measure the radius of curvature of the
[0184]
In this specification, a step of describing a program recorded on a recording medium is not limited to a process performed in a chronological order according to the described order. Alternatively, the processing includes individually executed processing.
[0185]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0186]
【The invention's effect】
As described above, according to the present invention, the radius of curvature of a lens can be measured. Further, according to the present invention, it is possible to measure the radius of curvature of the lens from a plurality of directions without changing the measurement time as in the related art.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a measurement direction of a radius of curvature of a contact lens.
FIG. 2 is a diagram illustrating a configuration example of a lens measuring device to which the present invention has been applied.
FIG. 3 is a diagram showing a configuration example of a reticle of FIG. 2;
FIG. 4 is a diagram illustrating a configuration example of a filter unit in FIG. 2;
FIG. 5 is a diagram illustrating a position of an image formed by light from a back curve of a contact lens.
FIG. 6 is another diagram illustrating the position of an image formed by light from the back curve of the contact lens.
FIG. 7 is a diagram illustrating the principle of obtaining the radius of curvature of the back curve of a contact lens.
8 is a diagram illustrating a method for specifying the position of the stage shown in FIGS. 5 and 7. FIG.
FIG. 9 is another diagram for explaining the method of specifying the position of the stage shown in FIGS. 5 and 7;
FIG. 10 is yet another diagram for explaining the method of specifying the position of the stage shown in FIGS. 5 and 7;
FIG. 11 is a flowchart illustrating a curvature radius measurement process of the lens measurement device.
FIG. 12 is a flowchart illustrating the radius of curvature measurement process of the lens measuring device, continued from FIG. 11;
FIG. 13 is a flowchart illustrating the process in step S8 of FIG. 11 in detail.
FIG. 14 is a diagram illustrating an example of filtered data.
FIG. 15 is another diagram illustrating an example of filtered data.
FIG. 16 is yet another diagram showing an example of filtered data.
FIG. 17 is a diagram illustrating an example of filtered data.
FIG. 18 is a flowchart illustrating the process of step S9 in FIG. 11 in detail.
FIG. 19 is a diagram illustrating an example of data stored in a RAM.
FIG. 20 is a diagram showing an example of an experimental result.
FIG. 21 is another diagram showing an example of an experimental result.
FIG. 22 is still another diagram showing an example of the experimental result.
FIG. 23 is a diagram illustrating an example of an experimental result.
FIG. 24 is another diagram showing an example of an experimental result.
FIG. 25 is still another diagram showing an example of the experimental result.
FIG. 26 is a diagram showing an example of an experimental result.
FIG. 27 is another diagram showing an example of an experimental result.
FIG. 28 is still another diagram showing an example of the experimental result.
[Explanation of symbols]
10 Lens measuring device
11 Light source
12 Condenser lens
13 Reticle
14 Reticle imaging lens
15 Half mirror
16 Objective lens
17 stages
18 contact lenses
19 Object plane
20 Imaging lens
21 CCD
22 A / D converter
23 Image memory
24 Filter section
37 motor
38 Linear scale
39 RAM
40 ROM
41 CPU
101 First filter
102 Second filter
103-1 to 103-4 variance value calculation unit
Claims (4)
複数の線分の像を撮像する撮像手段と、
前記撮像手段により撮像された前記複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の前記線分に対応する微分値を算出する算出手段と、
前記算出手段により算出された前記微分値に基づいて、フォーカス状態を制御する制御手段と
を備えることを特徴とするフォーカス制御装置。In a focus control device that controls a focus state,
Imaging means for capturing images of a plurality of line segments;
An image including an image of the plurality of line segments captured by the imaging unit is independently filtered by a first filter and a second filter to calculate a differential value corresponding to the line segment in a specific direction. Calculating means;
A focus control device comprising: a control unit that controls a focus state based on the differential value calculated by the calculation unit.
前記第2のフィルタは、前記第1のフィルタによりフィルタリングされたデータを、2×2のフィルタによりフィルタリングする
ことを特徴とする請求項1に記載のフォーカス制御装置。The first filter filters the image with a 3 × 3 filter;
The focus control device according to claim 1, wherein the second filter filters data filtered by the first filter by a 2x2 filter.
前記複数の線分の像をレンズに投影する投影手段と、
前記投影手段と前記レンズ間の距離を設定する設定手段と
をさらに備え、
前記制御手段は、前記算出手段により算出された前記微分値に基づいて、前記画像に含まれる前記線分の輪郭が明瞭になる、前記投影手段と前記レンズ間の距離を、前記線分毎に特定し、特定された前記距離に基づいて、前記複数の線分の交差角度ごとの前記レンズの曲率半径を演算する
ことを特徴とする請求項1に記載のフォーカス制御装置。The plurality of line segments imaged by the imaging unit intersect at a predetermined angle,
Projecting means for projecting the plurality of line segments onto a lens;
Further comprising setting means for setting a distance between the projection means and the lens,
The control means, based on the differential value calculated by the calculation means, the outline of the line segment included in the image becomes clear, the distance between the projection means and the lens, for each line segment The focus control device according to claim 1, wherein a radius of curvature of the lens is calculated for each intersection angle of the plurality of line segments based on the specified distance.
複数の線分の像を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された前記複数の線分の像を含む画像を、第1のフィルタと第2のフィルタにより独立にフィルタリングして、特定の方向の前記線分に対応する微分値を算出する算出ステップと、
前記算出ステップの処理により算出された前記微分値に基づいて、フォーカス状態を制御する制御ステップと
を含むことを特徴とするフォーカス制御方法。In a focus control method of a focus control device that controls a focus state,
An imaging step of capturing images of a plurality of line segments;
An image including an image of the plurality of line segments captured by the processing of the imaging step is independently filtered by a first filter and a second filter, and a differential value corresponding to the line segment in a specific direction is calculated. A calculating step for calculating;
A control step of controlling a focus state based on the differential value calculated by the processing of the calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003074949A JP2004279368A (en) | 2003-03-19 | 2003-03-19 | Focus control device and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003074949A JP2004279368A (en) | 2003-03-19 | 2003-03-19 | Focus control device and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004279368A true JP2004279368A (en) | 2004-10-07 |
Family
ID=33290386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003074949A Pending JP2004279368A (en) | 2003-03-19 | 2003-03-19 | Focus control device and its method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004279368A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012123139A (en) * | 2010-12-08 | 2012-06-28 | Tokai Kogaku Kk | Method for evaluating performance of spectacle lens |
WO2015051573A1 (en) * | 2013-10-11 | 2015-04-16 | 杭州奥普特光学有限公司 | Hand-held lens surface focal power measuring device |
-
2003
- 2003-03-19 JP JP2003074949A patent/JP2004279368A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012123139A (en) * | 2010-12-08 | 2012-06-28 | Tokai Kogaku Kk | Method for evaluating performance of spectacle lens |
WO2015051573A1 (en) * | 2013-10-11 | 2015-04-16 | 杭州奥普特光学有限公司 | Hand-held lens surface focal power measuring device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9088718B2 (en) | Imaging apparatus and control method therefor | |
JP2008191683A (en) | Imaging apparatus and imaging method | |
JP5800498B2 (en) | Automatic focus adjustment device and lens device having the same | |
JPH09298682A (en) | Focus depth extension device | |
US20170285319A1 (en) | Digital microscope and focusing method thereof | |
JP2009116742A (en) | Onboard image processor, image processing method, and program | |
JP2007114029A (en) | Face center position detector, face center position detection method, and program | |
CN105378534A (en) | Imaging device and method for operating imaging device | |
US9979858B2 (en) | Image processing apparatus, image processing method and program | |
JP5063480B2 (en) | Imaging system with autofocus mechanism and adjustment method thereof | |
JP6737212B2 (en) | Driver state estimating device and driver state estimating method | |
EP3599989A1 (en) | High speed pupil detection system and method | |
JP2010181247A (en) | Shape measurement apparatus and shape measurement method | |
JPH09196621A (en) | Focal plane detection method and image input/output device | |
WO2024055662A1 (en) | Near-eye display module inspection method and inspection system | |
JP4871691B2 (en) | Imaging apparatus and control method thereof | |
JP2004364212A (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP4589646B2 (en) | Digital still camera and control method thereof | |
JP2004279368A (en) | Focus control device and its method | |
JP4996568B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
TW201236448A (en) | Auto-focusing camera and method for automatically focusing of the camera | |
JP5050282B2 (en) | Focus detection device, focus detection method, and focus detection program | |
US8643730B2 (en) | Imaging device and image capturing method | |
TWI588585B (en) | Image capture device and focus method | |
JP4981758B2 (en) | Focus adjustment apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081202 |