JPH0325165B2 - - Google Patents

Info

Publication number
JPH0325165B2
JPH0325165B2 JP2091829A JP9182990A JPH0325165B2 JP H0325165 B2 JPH0325165 B2 JP H0325165B2 JP 2091829 A JP2091829 A JP 2091829A JP 9182990 A JP9182990 A JP 9182990A JP H0325165 B2 JPH0325165 B2 JP H0325165B2
Authority
JP
Japan
Prior art keywords
straight line
measuring device
linear
parallel
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2091829A
Other languages
Japanese (ja)
Other versions
JPH0315435A (en
Inventor
Hiroshi Tamaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TOPUKON KK
Original Assignee
TOPUKON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TOPUKON KK filed Critical TOPUKON KK
Priority to JP2091829A priority Critical patent/JPH0315435A/en
Publication of JPH0315435A publication Critical patent/JPH0315435A/en
Publication of JPH0325165B2 publication Critical patent/JPH0325165B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 本発明は曲面の曲率半径を測定する装置に関
し、さらに詳しくは人眼の角膜の曲率半径を測定
するオフサルモメータやコンタクトレンズの曲率
半径を測定するラジアスメータに応用できる曲率
測定装置に関する。 本明細書においては本発明の原理及び実施例を
主にオフサルモメータについて説明するが本発明
はこれに限定されるものでなく、広く光反射性を
有する球面またはトーリツク曲面体の曲面の主径
線の曲率半径を測定する装置にも本発明は適用で
きるものである。 人眼角膜自体の屈折力は、眼全体の総屈折力の
略80%、約45Diopterの屈折力をもち、また乱視
眼においては約75%が角膜乱視すなわち角膜前面
が球面でなくトーリツク面形状をしていることを
起因している。また、コンタクトレンズ処方に際
しては、そのベースカーブは、コンタクトレンズ
を装用させる眼の角膜前面の主径線の曲率半径を
もとに処方する必要がある。これら観点から角膜
前面の曲率半径を測定することは重要な意義があ
る。この要求から、人眼角膜前面の曲率半径を測
定する装置として、種々の形式のオフサルモメー
タが実用化されている。いずれの型式のオフサル
モメータも、被検角膜上に1つ、もしくは複数の
視標を投影し、その投影像の大きさ、あるいはそ
の反射像位置を、観察望遠鏡の焦点面で観察し、
投影像の大きさの変化量あるいは視標反射像の相
対的位置ズレ量から被検角膜の曲率半径及び角膜
乱視軸を測定するものであつた。 オフサルモメータにおいては、特に角膜がトー
リツク面形状の乱視眼角膜の測定に際しては、そ
の第1(強主径線)及び第2主径線(弱主径線)
の曲率半径及び少なくとも一方の主径線方向の角
度の3つの被測定量を測定することが必要であ
り、上述の従来のオフサルモメータはこれら3つ
の測定値を求めるに3段階の測定を必要としてい
た。しかしながら人眼には生理的な眼球振動がつ
ねにともなつており、測定時間の長時間化は眼球
振動にともなう投影像の振動となり、それゆえに
測定誤差や、測定中の頻繁なアライメント調整操
作を必要とするという大きな問題点があつた。 この従来の装置の欠点を解決する装置として、
例えば、特開昭56−18837号公報、特開昭56−
66235号公報、あるいは米国特許第4159867号明細
書には、投影像の角膜からの反射像を一次元型あ
るいは二次元型のポジシヨンセンサで検出して、
その検出位置から被検眼角膜の曲率半径及び主径
線角度を測定する装置が開示されている。 しかしながら、これら装置も、従来の実用され
ているオフサルモメータと同様に、投影視標の角
膜からの反射像を望遠鏡で結像する型式であり、
測定精度を上げるには望遠鏡の焦点距離を大きく
せねばならず、いきおい装置が大型化するという
欠点があつた。また、結像型式であるためその合
焦機構を必要していた。さらに、装置と被検角膜
とのアライメントもこの合焦望遠鏡を利用してア
ライメントするためのアライメントも不正確であ
り、かつ測定時間の短縮化や完全な自動化にはつ
ながらなかつた。 非結像光学系を利用して、光学系の屈折特性、
主に眼鏡レンズの球面屈折力や円柱屈折力及びそ
の軸角度を測定する装置が、米国特許第3880525
号明細書に開示されている。この装置は、被検眼
鏡レンズに平行光束を照射し被検レンズの屈折特
性により偏向された光束を点開口を有するマスク
手段で選択し被検レンズの焦点距離より短かい距
離に配置された平面型イメージデイテクターや
TVカメラの撮像面に投影し、上記点開口を通過
した光軸の該デイテクター上への投影点の位置か
ら被検レンズの屈折特性をもとめる構成であつ
た。 しかしながら、この米国特許明細書は、屈折光
学系における屈折特性測定を開示するのみであ
り、反射光学系の反射曲面の曲率半径の測定等に
ついては何ら開示も示唆もしていない。さらに、
この装置は点開口を使用して屈折特性を検出する
ため、検出手段には上述の平面型のイメージデイ
テクターやTVカメラを使用せねばならず、装置
が高価になるばかりか、被検レンズや装置光学系
あるいは検出面にゴミ、ホコリ等が付着すると点
開口を通過すべき光束がゴミ、ホコリ等で遮断さ
れ、被検レンズの屈折特性を測定できない場合も
生じるという欠点を有していた。 そこで、本発明は、上述した従来のオフサルモ
メータの欠点を解決し、非結像型光学系を利用し
て自動測定が可能な、オフサルモメータやラジア
スメータに応用できる曲率測定装置を提供せんと
するものである。 本発明のもう一つの目的は、非結像型光学系を
使用することにより、従来の装置に比較して、小
型で、かつ結像望遠鏡等の検者が視察および操作
する必要のある光学部材を有しない、自動的に曲
率半径を測定出来る曲率測定装置を提供すること
である。 本発明の更にもう一つの目的は、従来の装置が
視準により行なつていた被検曲面と装置光軸との
アライメントのための情報を自動的に出力できる
操作性がすぐれそして測定時間を短縮できる自動
曲率測定装置を提供することである。 本発明の更にもう一つの目的は、マスク手段の
情報量を多くすることにより、従来のオフサルモ
メータはもちろん自動レンズメータより安価な検
出手段が利用でき、しかも装置光学系や検出面に
ゴミやホコリがあつても測定が可能な外乱影響に
強く高精度でしかも安価な自動測定可能な曲率測
定装置を提供することである。 本発明の更にもう一つの目的は、ポジシヨンセ
ンサの組込、調整が不要で、組立、調整コストが
安く、しかもメンテナンスの楽くな曲率半径測定
装置を提供することにある。 本発明によるならば、光源と、該光源からの光
を平行光束とするコリメーター手段とを有する照
明光学系と;前記照明光学系からの光束で被検曲
面によつて反射された光束を選択するために、実
質的な面内に少なくとも2本の平行な直線からな
る少なくとも2線の互いに配列方向の異なる平行
直線群を構成する直線パターンを有するマスク手
段と、前記マスク手段で選択された前記反射光を
検出する検出手段とを有する検出光学系と;前記
検出手段が検出した前記反射光の前記直線パター
ンに対応した投影直線パターンの傾きとピツチの
変化から前記被検曲面の曲面半径を演算する演算
手段とからなり;前記マスク手段と前記検出手段
のいずれもが前記光源と光学的に非共役で、かつ
互いに異なる面にそれぞれ配置されている曲率測
定装置が提供される。 なお、本発明で「実質的な面内」とは、実際に
一平面内に直線パターン(または検出手段)が配
置されている場合と、互いに異なる場所にある直
線パターン(または検出手段)が例えば光学的手
段により、仮想的な一平面内にあるがごとくに構
成される場合の両方を包含する。 本発明において、以上の構成上の特徴により、
従来の曲率半径測定装置に比較して、装置が小型
となり、測定時間が短かく、外乱影響に対し強く
かつ測定精度が高く、さらに安価で、しかも自動
的な被検曲面の曲率半径を測定できる。また、ア
ライメント情報を自動的に出力できるので、さら
に測定時間の短縮と測定精度の向上が実現でき
る。これら本発明の長所は、特にオフサルモメー
タに本発明を応用した場合、眼球振動の影響を受
けない測定精度が高く、測定時間の短かい小型
で、かつ安価な自動測定を可能化したオフサルモ
メータを提供することができる。 また本発明をコンタクトレンズのベースカーブ
あるいは前面の曲率半径を測定する言わゆるラジ
アスメータに応用すれば、ターゲツト像をコンタ
クトレンズの裏面と、その曲率中心に2度合焦
し、そのときの対物レンズの移動量からベースカ
ーブ等の曲率半径を測定していた従来のラジアス
メータに比較して、従来のラジアスメータがもつ
ていたターゲツト像観察及びそれによる測定用の
顕微鏡光学系を一切必要とせず、ゆえに測定精度
を直接左右する視度調節を一切必要としないばか
りか、測定者間のパーソナルエラーも発生しない
自動測定が出来、測定精度の高い、しかも測定時
間の短かい新しいタイプのラジアスメータを提供
することができる。 以下本発明を角膜の曲率半径を測定するオフサ
ルモメータに適用した測定原理及び実施例を図面
を参照して説明する。 第1図は、本発明の測定原理を説明するための
斜視図であり、第2図はその平面図である。 これらの図において、装置光軸O1に原点O0
有するX0−Y0直交座標系を考える。このX0−Y0
座標系を含む面から距離l前方に角膜Cが配置さ
れているものとする。この角膜Cはその光学中心
OCをX0軸と平行な方向にEH、Y0軸と平行な方向
にEVずらして配置されており、かつ曲列半径が
R1の第1主径線(強主径線)がX0軸と平行な軸
に対し角度θだけ傾けて配置されているものとす
る。またその第2主径線の(弱主径線)の曲率半
径をR2とする。第1主径線と第2主径線は直交
している。 今、このX0−Y0座標系が作る面内に後述する
るマスクMAが配置され、マスクMAから装置光
軸O1にそつて距離d離れた位置に、その装置光
軸O1上に原点OをもつX−Y直交座標系を想定
し、このX−Y座標面に検出面Dを配置したとす
る。 マスタMAは、傾き0m1、ピツチ0P1の2本の平
行直線群で構成される直線開口0L1と、傾き0m2
ピツチ0P2の2本の平行直線群で構成される直線
開口0L2とを有している。被検角膜Cは、第2図
に示すように、半径φ/2の円形光束が照明され
ている。この照明光束の角膜Cによる反射光は、
角膜頂点OCから距離l隔てられたマスタMAに形
成された平行直線群0L10L2からなる直線開口で
選択透過されて、マスタMAから距離d隔てられ
た検出面Dに投影される。この被検角膜Cで反射
されたマスタMAで選択された光線束は、検出面
D上で傾き0m1′、ピツチ0P1′の2本の投影平行直
線群0L1′と、傾き0m2′、ピツチ0P2′の2本の投影
平行直線群0L2′となる。 この検出面Dでの投影平行直線群0L1′,0L2′の検
出により、投影平行直線群0L1′のピツチが0P1′、
その傾きが0m1′に、投影平行直線群0L2′のピツチ
0P2′、その傾きが0m2′に変化したとすれば、こ
の各々について傾き0m′は次の式が成り立つ。0 m′=〔A(l)sin2θ+B(l)cos2θ〕+〔A(l
)−B(l)〕sinθ・cosθ/0m〔A(l)−B(l)
〕sinθ・cosθ+〔A(l)cos2θ+B(l)sin2θ〕
…(1) またピツチP′の変化量は0 P′/0P=A2(l)sin2θ+B2(l)cos2θ+A2(l)
+B2(l)/0m2+1〔cos2θ+0msin2θ〕…(2) として表わされ、こゝに 〔A(l)=1+2(l−d)/R1/2l/R1 B(l)=1+2(l−d)/R2/2l/R2〕 である。 本測定原理においては、平行光束の角膜Cでの
反射光をマスタMAの直線開口で選択し、この選
択された光束を検出面Dで検出しているので、マ
スタMAと角膜Cとの間の距離l、すなわち作動
距離はあらかじめ公知の作動距離検知装置で予め
定められた定数となるように装置を設定する必要
がある。好ましくはl=Oとなるように設定する
とよい。 2組の投影平行直線群0L1′,0L2′から(1)、(2)式が
それぞれ2組、合計4式得られるため、(1)、(2)式
の未知数θ(第1主径線角度)、R1(第1主径線の
曲率半径)、R2(第2主径線の曲率半径)を求め
ることができる。二次方程式(1)、(2)式を解いて
R1,R2、θを求めることが演算処理上、複雑で
処理機構のコストアツプ、処理時間の増大をまね
くようであれば、以下の中間的演算処理をほどこ
せばよい。 第3a図は第2図の直線光源が形成する平行直
線群L1,L2を示している。L1の傾きはm1でピツ
チはP1、L2の傾きはm2でピツチはP2であること
は第2図と同様である。今、平行直線L1のうち
の1本L11からピツチP1のe倍の距離eP1へだて
て平行線と、距離fP1の平行線を考える。 また平行直線L2のうちの1本L21から距離gP2
の平行線と距離hP2の平行線を考える。
これら平行線、、、から基準仮想
平行四辺形UVWQが形成され、これら四頂点の
x0−y0座標系の仮想座標を、U(0x10y1)、V
0x20y2)、W(0x30y3)、Q(0x40y4)とする
。 第3b図は、角膜Cで反射された光束が第3a
図の平行直線群0L10L2により選択透過され、検
出面D上に投影された投影平行直線群0L1′,0L2′を
示す図で、この0L1′は傾き0m1、ピツチ0P1′に、
L2′は傾き0m2′、ピツチP2′に変化していることは
第1図と同様である。この投影平行直線群0L1′,
0L2′を検出面Dに配置された平面型ポジシヨンセ
ンサで検出してもよいが、今、仮りにX−Y座標
の原点OからX軸方向にξ、Y軸方向にηだけ平
行移動された点に原点O′を有する交差角γで交
差するリニアポジシヨンセンサS1,S2で検出する
ものとすると、リニアポジシヨンセンサS1は検出
点イ,ロ,ハ,ニで投影平行直線群を検出し、リ
ニアポジシヨンセンサS2は検出点ホ,ヘ,ト,チ
で投影平行直線群を検出する。そして検出点ロ,
ヘから投影平行直線群のうちの1本L11′の方程式
を演算し、また検出点ハ,トからL21′の方程式を
演算する。また同様に検出点イ,ホから投影平行
直線群のうちの他の1本L12′の、検出点ニ,チか
らL22′のそれぞれの方程式が演算できL11′,
L12′のピツチP1′も、L21′,L22′のピツチP2′も演

できる。そしてL11′からピツチP1′に第3a図で
かけた倍率と同じ倍率eをかけてeP1′のピツチの
平行線′′を考えることができ、同様にfP1′のピ
ツチの平行線′′を、L21′からgP2′ピツチの平行
線′′をhP2′ピツチの平行線′′を考えるこ

ができ、これら平行線′′、′′、′′、
U′Q′から第1投影仮想平行四辺形′′′′を

とめることができる。この仮想平行四辺形の四頂
点のX−Y座標系における仮想座標をU′(x1
y1)、V′(x2,y2)、W′(x3,y3)、Q′(x4,y4

すると、第3a図の基準仮想平行四辺形UVWQ
と第3b図の第1投影仮想平行四辺形
U′V′W′Q′は対応しており、この変化はまさに被
検角膜の曲面特性にかかわるものである。 さてここで仮想4点に対し以下の係数と式を定
義する。 Aij=(0xi−xi)−(0xj−xj) Aik=(0xi−xi)−(0xk−xk) Bij=(0yi−yi)−(0yjyj) Bik=(0yi−yi)−(0yk−yk) Cij0xi0xj Cik0xi0xk Dij0yi0yj Cik0yi0yk (3a)式 ここにi、j、kはiを基準としてjもしくは
kをとるものとする。仮想4点より、12通りの組
合せが考えられる。 上記(3a)式を用いれば、2つの主系線の半
径に関するR1、R2は以下の2次方程式で表示で
きる。 4(CikDij−CijDik)(l/R)2−2(AijDik+Bik
−AikDij−BijCik)(l/R)+(AikBij−AijBik)=
0…(3b)式 ここで上記係数のカツコ式を以下のもので定義
する。 〔p、q〕≡pijqik−qijpik 〔p、q〕=−〔q、p〕 ここでp、qはそれぞれA、B、C、Dのいず
れかをとるものとすると、(3b)式は 4〔C,D〕(l/R)2−{〔B,C〕−〔A,D
〕} (l/R)+〔A,B〕=0 …(3c)式 として表わされる。 lは第1図で示すように被検角膜Cとマスタ
MA間の距離、をいう。 従つて、第1図のように2組の投影平行直線群
0L1′,0L2′のピツチ0P1′,0P2′と傾き0m1′,0m2
を検
出し、第3b図のように投影仮想投影四辺形を作
り、その平行四辺形を形成する4頂点より、(3c)
式の二次方程式を解くことにより、その2根を
λ1,λ2とすると λ1=l/R1、λ2=l/R2 …(4a) これにより、第1主径線及び第2主径線の各々
の曲率半径R1,R2として求めることができる。 また、第1主径線がX0軸と平行な軸となす角
θは θ=1/2tan-1{〔B、D〕−〔A、C〕/〔A、
D〕+〔B、C〕}+90゜…(5) として求めることができる。 上述した第3a図、第3b図及び第3c図で
は、仮想平行四辺径をもとめるのに、ピツチ0P1
0P20P1′、及び0P2′に、任意の倍率e,f,g,
hをそれぞれ掛けたが実際にはe=1、g=1と
して仮想平行四辺形U0V0W0Q、及び
U0′V0′W0′Q′を使つて演算した方が、処理はその
分簡略化できる。 また、仮想平行四辺形の各頂点の座標をX0
Y0直交座標系、X−Y直交座標系を使つて説明
したが、リニアセンサS1,S2の配置にそつて斜交
座標系X′−Y′座標系を考えると、X,Y直交座
標系とX′−Y′斜交座標系間の座標変換は第4図
に示すようにX軸とX′軸が角度αで交差し、Y
軸とY′軸が角度βで交差し、かつX′−Y′座標系
の原点O2はX−Y座漂系の原点O1からX軸方向
にξ、Y軸方向にηずれている。このときX′−
Y′座標系からX−Y座標系への座標変換は X=X′sinα+Y′sinB+ξ Y=Y′cosB+X′cosα+η …(6) 前記(3)式から Aij=(0xi−xi)−(0xj−xj) これに(6)式を代入して Aij={(0x′isinα+0y′jsinβ+ξ) −(x′isinα+y′sinβ+ξ)} −{(0x′jsinα+0y′jsinβ+ξ) −(x′jsinα−y′jsinβ+ξ)} =sinα{(0x′i−x′i)−(0x′j−x′j)} +sinβ{0y′i−y′i)−(0y′j−y′j)} =A′ijsinα+β′ijsinβ …(7a) (ここで「′」が付されたものはX′−Y′斜交座
標系に基づく座標値または演算子を意味する、以
下同じ。) またBij=(0yi−yi)−(0yj−yi)で 上記同様の計算で Bij=cosβ{(0y′i−y′i) −(0y′j−y′j)} −cosα{(0x′i−x′i) −(0x′j−x′j)} =B′ijcosβ−A′ijcosα …(7b) 以下同様に Cij=C′ijsinα+D′ijsinβ …(7c) Dij=D′ijcosβ+C′ijcosα …(7c) となる。 ここで〔C、D〕、〔B、C〕、〔A、D〕、〔A、
B〕を求めると、(7a)〜(7d)式から 〔C、D〕=CijDik−DijCik =(C′ijsinα+D′ijsinβ) (D′ikcosβ−C′ikcosα) −(D′ijcosβ−C′ijcosα) (C′iksinα+D′iksinβ) =(sinαsinβ+cosαsinβ)〔C′,D′〕 同様に 〔B、C〕=(sinαsinβ+sinβcosα) 〔A′、B′〕 〔A、D〕=sinαcogβ〔A′、D′〕 −sinαcosα〔A′、C′〕 +sinβcosβ〔B′、D′〕 −sinβcosα〔β′、C′〕 〔A、B〕=(sinαcosβ+cosαsinβ) 〔A′、B′〕 また 〔B、C〕−〔A、D〕=sinαcosβ+cosαsinβ) {〔B′、C′〕−〔A′、D′〕} 従つて(3c)式は sin(α+β)×{4〔C′,D′〕 (l/R)2−2(〔B′,C′〕−〔A′,D′〕) (l/R)+〔A′,B′〕}=0 …(8) となり、この(8)式の{ }内は(3c)式と同一形
式の二次方程式となり、このことから(3c)式の
二次方程式は、座標系の取り方に無関係な不変方
程式であることがわかる。このことは、検出器と
しての2本のリニアセンサの配置において、その
配置の自由度が非常に大きいことを示す。すなわ
ち、従来のように、2本のリニアセンサをX−Y
座標系と直交座標軸上におく必要はなく、X′−
Y′座標系におてもよいことを意味するもので、
リニアセンサの直交精度及び光軸合せはまつたく
考えなくとも、測定精度に無関係にすることがで
きる。そして測定に際してはマスタMAの直線開
0L10L2を斜交座標系X′−Y′に対して予め設定
する代わりに、検出光路内にマスタMAの前方に
平面反射鏡を装置光軸O1と垂直に仮設し、この
平面反射鏡で反射された証明光束をマスタMAの
直線開口0L10L2で透過選択させ、その共役検出
面Dにおける投影平行直線群0L1′,0L2′を斜交座標
系X′−Y′座標のX′軸、Y′軸に配したリニアセン
サS1、S2で検出しておき、この検出からつくられ
る仮想平行四辺形U,V,W,Qを基準投影仮想
平行四辺形とし、平面反射鏡を取り除き被検角膜
Cに照明光束を照射し、このときの投影仮想平行
四辺形U′V′W′Q′をつくり、これら基準投影仮想
平行四辺形と投影仮想平行四辺形とから被検角膜
の曲面特性を求めることができきる。そしてこの
とき両平行四辺形は任意に選択できる斜交座標系
X′−Y′座標系に対してのみ座標系を考えている
こととなり、かつこの斜交座標系X′−Y′は、上
述したようにその選択は被検角膜の曲面特性演算
の曲率半径の計算のための二次方程式に対し、無
関係な不変式である、本発明によればリニアセン
サS1,S2の配置に対して、何ら組立上も、メンテ
ナンス上も調整を必要としないという非常に有利
な効果をもつ。 被検角膜の軸方向は、(5)式で与えられる。(5)式
は直交座標系による式であるが、斜交座標系
X′−Y′にセンサS1,S2がある場合には、以下の
式を使つて斜交座標系で求めた結果を直交座標系
を使用したときの軸方向として計算することがで
きる。 θ=1/2tan-1 X{ocs2β〔B′,D′〕−cos(α−β)・(〔A′,D
′〕+〔B′,C′〕cog2α〔A′,C′〕/sin2α〔B′
,D′〕+sin(α+β)(〔A′,D′〕+〔B′+C′〕
)−sin2α〔A′,C′〕}…(9) 次に、角膜の頂点と装置光軸O1の左右上下方
向のズレ量(以下アライメント量という)の測定
原理を第5図をもとに説明する。 X0−Y0,X−Y直交座標系によるアライメン
ト量の算定は、Y0軸に対し、同じ角度γで対称
に配置されたピツチ0P1の平行直線群0L1とピツチ
0P2の平行直線群0L2のそれぞれいずれか1本の直
線L11,L21からe′P1にある直線,を、同様に
f′P1で,を、gP2で,を、h′P2で,
を引き、仮想平行四辺形の四頂点がX0
軸、Y0軸に一致するようにとる。すなわち測定
光軸O1に対し、仮想平行四辺形が対称になるよ
うに作れば、この仮想平行四辺形の中心は、測定
光軸O1と一致している。次に、被検角膜を測定
して、投影平行直線群L′1,L′2を検出し、投影平
行直線L′11からe′P′1にある直線′,′を引く、
同様にf′P′1で直線′′、g′P2′で′′、h
′P′2
で′′を引き第1投影仮想平行四辺形′′
W′′をつくる。この第1投影仮想平行四辺形の
四頂点は、X−Y座標系′(x1,y1)、′(x2
y2)、′(x3,y3)、′(x4,y4)となり、この
四頂点の座標から水平方向アライメント量α、及
び垂直方向アライメント量βはマスクMAと検出
面Dとの距離dが関与し次式で表わされる。 斜交座標系X′−Y′で測定した場合は、直交座
標系の場合と同様に、対称性の原理から、初期仮
想点を(0x10y1)(0x20y2)(0x30y3)(0x40
y4
とおき、 0x10x20x30x4=00 y10y20y30y4=0 …(12) を満たすように仮想点を設定すればよい。そし
て、水平方向アライメント量α、垂直方向アライ
メント量βは、それぞれ(10)式で与えられるから
(12)式を(6)式により変換すれば となり、(10)式を同様に(6)式で変換すれば となる。アライメント量は被検角膜を測定しない
ときの初期仮想点(0xi0yi)の斜交座標系での座
標(0x′i0y′i)と被検角膜を測定系に挿入したと
きの測定座標の斜交座標系における座標(x′i
y′i)との差であるから、(13)、(14)式から次式
が得られる。 この式がアライメント量を表わすものである。 以上のべたように本測定原理では、被検角膜の
曲率半径の測定には、座標系の取り方に無関係な
不変方程式で算出できるが、軸方向、アライメン
ト量において斜交−直交座標変換が必要となり、
(12)式、(15)式の変換が必要であるが、演算機構
上複雑であれば、斜交座標系での測定座標(x′,
y′)から第(6)式で直交座標変換したのち、直交座
標系による算出式(5)、(10)式を使つて軸方向、アラ
イメント量を算出してもよい。 このように本願発明では、被検角膜を測定光路
内に設置しない状態でマスク上の平行直線群L1
L2から光軸Oに対し、対称な仮想平行四辺形を
作つておけば、次に被検角膜を測定光学系に挿入
し、投影平行直線像から相似的な投影仮想平行四
辺形を作れば、アライメント量が算出でき、この
アライメント量の算出に際しては被検角膜の曲面
特性、すなわち第1、第2主径線の曲率半径やそ
の傾き角は何ら知らなくとも単独に測定できるこ
とを意味している。これは、従来のオフサルモメ
ータでは、アライメント量の算出が数値的に出来
るものは存在せず、まず、その測定しようとする
被検角膜を測定望遠鏡で観察しながらレテクル板
の十字線の中心に目測で合わせていた点を考えれ
ば非常に有利であり、被検角膜の曲面特性算出ス
テツプとアライメント量算出ステツプが独立にあ
るいは平行して数値算出として進めることができ
るためこのアライメント量を装置移動系に電気的
に入力すれば自動アライメントも可能であり、ま
た演算時間を短縮できる。 また、仮想平行四辺形を作成するとき、直線
L11,L21にそれら直線の属する直線群のピツチを
n倍して、直線L11,L21の傾きに平行に仮想直線
を引くことにより仮想平行四辺形を作成したが、
仮想平行四辺形の作成方法はこれに限定されるも
のではなく、第3C図のように直線L11に対し、
角度βの傾きをもつ仮想直線l11を、また、直線
L21に対し角度αの傾きをもつ仮想直線l21を作
り、この作られた仮想直線l11,l21をもとにして
仮想平行四辺形uvwqを作成してもよいことは言
うまでもなく、これにより、本願の測定原理が変
更をうけるものではない。 以下本発明の実施例を説明する。 第6図は、本発明の実施例を示す光学配置図で
ある。本実施例は前述の測定原理を利用したオフ
サルモメータである。 また本実施例は、共役検出面D内で斜交するよ
うにハーフミラーと組合せて2本のリニア型ポジ
シヨンセンサを検出器として利用しているが、本
発明においては、これに限定されずに、平面型ポ
ジシヨンセンサや交差する二本のリニア型ポジシ
ヨンセンサを利用しても検出できることは前述の
原理説明から明かである。 照明光学系1の光源としては発光波長の互いに
異なる二つの赤外発光ダイオード70,71を使
用する。発光ダイオード70から光はダイクロイ
ツクプリズム32のダイクロイツク面72aを透
過したコンデンサレンズ7に入射する。一方、発
光ダイオード71からの光はダイクロイツク面7
2aを反射して、同様にコンデンサレンズ7に入
射する。 コンデンサレンズ7からの射出光は、ピンホー
ル板10のピンホールを通つて、このピンホール
にその焦点位置をもつコリメータレンズ73によ
つて平行光束とされたのち、装置光軸O1上に傾
設された微小ミラー34によつて反射され、光軸
O1と平行に被検角膜Cに照射される。固視光学
系3は、照明光学系1に傾設されたハーフミラー
84によつて、その固視標像を被検眼に照明して
いる。 リレーレンズ14の後方にはダイクロイツクミ
ラー86が配置され、その後方の光路を第1光路
120と第2光路121に2分する。 第1光路にはマスク13aが、第2光路121
にはマスク13bがそれぞれ配置される。マスク
13aを通過した光束はハーフミラー303でさ
らに二分割され、反射光束はリニアポジシヨンセ
ンサ15に、透過光束はリニアポジシヨンセンサ
16に入射する。また同様にマスク13bを通過
した光束もハーフミラー303で反射及び透過さ
れ、それぞれリニアセンサ15,16に入射す
る。こゝでリニアセンサ15と16はリレーレン
ズ14により、その供役検出面D内で互いに交差
するように配置されている。 またマスク13a,13bはリレーレンズ14
によりそれぞれの共役像は図中MAの位置に形成
される。そしてこれら共役面MA、及びDはそれ
ぞれピンホール10と光学的に非共役な関係にあ
る。 第7a図、第7b図はそれぞれ前述の光束制限
マスク13a,13bのマスクパターンを示す図
である。 マスク13aは傾きm2でピツチpの複数の直
線パターンからなる平行直線群20を有してい
る。また平行直線群20の内少なくとも1本は他
の直線パターンと区別できるように太さの異なる
基準直線パターン22を有している。同様にマス
ク13bは基準直線パターン23を有し傾きm1
ピツチpの平行直線群21を有している。 こゝで、本実施例では基準直線パターン22,
23は太さに差をもたせることで他の直線パター
ンと区別させたが、本発明はこれに限定されるも
のでなく、光の透過率や透過波長特性に差をもた
せることにより区別させてもよく、或いは直線群
はすべて同一とし、その特定箇所のピツチを変え
て基準直線の代りとしてもよい。 マスク13a,13bのそれぞれの平行直線群
20,21は第6図のリレーレンズ14によるマ
スク13a,13bの共通共役面MA上で互いの
交溝角がθでかつ、その2等分線24がある基準
軸25と交わる角度がεとなるように構成されて
いる。本実施例ではθ=90゜ε=90にしてある。 なお、平行直線群20,21のそれぞれのピツ
チを同じ値Pに選んでいるが、これはマスク13
a,13bの製作を容易にするためだけであり、
たがいに異なるピツチの平行直線群を使用しても
よいし、また1つの平行直線群の各々の直線パタ
ーンのピツチもそれぞれ同一にする必要はない。 また、角度θ、及びεも任意に選択しうるもの
である。第8図は、リニアセンサによるマスクパ
ターン像検出時のリニアセンサ上へのマスクパタ
ーン像の投影関係を示す図である。第8図に示す
ように第6図のリニアセンサ15,16はそれぞ
れリレーレンズ14により共通共役面すなわち検
出面D上で交差角γを有するような関係で配置さ
れている。そして、このリニアセンサ15,16
上に被検角膜Cによつて、その曲面特性情報をも
つた光束はマスク13a,13bを通過し、マス
ク13aの平行直線群20はリニアセンサ上に投
影直線パターン20′a,20′b,22′…2
0′hとして投影される。同様にマスク13bの
平行直線群21は投影直線パターン21′a,2
1′b…23′…21′iとして投影される。これ
ら投影される投影直線パターンは被検角膜Cの曲
面特性により、ピツチp′及びp″に、また互いの交
差角はθ′に及びその二等分線24′が基準軸2
5′と交わる角度はε′に変化させられる。 測定に際してまず光源70の発光により、第1
測定光路が形成され、マスク13aによる投影直
線パターン20′a,20′b…22′…20′h
が、リニアセンサ15、及び16上に投影され
る。こゝでリニアセンサ15により投影直線パタ
ーン20′a,20′b…20′hはそれぞれ検出
点e11,e12…e17として検出される。同時にリニア
センサ16によつても、検出点f11,f12…f19とし
て検出される。 つぎに、光源71を発光させると、第2測定光
路が形成され、マスク13bによる投影直線パタ
ーン21′a,21′b…23′…21′iがリニア
センサ15、及び16上に投影される。こゝでリ
ニアセンサ15により投影直線パターン21′a,
21′b…23′…21′iはそれぞれ検出点e21
e22…e29,e20として検出される。また同様にリニ
アセンサ16によつても検出点f21,f22…f26とし
て検出される。 第9図A〜Mは、リニアセンサによる投影直線
パターン検出時のリニアセンサ出力及びその後の
演算をタイミングチヤートで示した図である。(A)
はリニアセンサの検出出力読み出し駆動用のパル
ス列であり、リニアセンサにこのパルスが入力さ
れるとそれにともなつてリニアセンサから順時検
出出力が出力される。(B)はリニアセンサ15に投
影直線パターン20′a,20′b…22′…2
0′hが投影されたときのリニアセンサ15から
の検出出力波形(包絡線)を示している。この(B)
の出力波形は検出点e11,e12…e17に対応した出力
レベルの立上りを有する出力波形となつている。
同様に(C)は、リニアセンサ16による直線像パタ
ーン20′a,20′b…20′hの検出出力波形、
(D)はリニアセンサ15による直線パターン21′
a,21′b…23′…21′iの検出出力波形、
(E)はリニアセンサ16による投影直線パターン2
1′a、21′b…23′…21′iの検出出力波形
である。(F)〜(I)は、上述の検出出力波形(B)〜
(E)をシユミツト・トリガー回路で短形波に波形成
形した短形波出力波形であり、出力波形(F)〜
(I)はそれぞれ出力波形(B)〜(E)に対応している。
つぎにこの得られた矩形波出力波形(F)〜(I)の
各矩形波の中心位置をもとめ、この中心位置をリ
ニアセンサのセンサ素子番号を目盛として位置づ
けする。 すなわち、第10図に示すようにE1,E2
EN-1,EN番までのN個のセンサ素子からなるリ
ニアセンサLNSの第Ep番からEp+o番号のセンサ
素子により、矩形波出力eAが出力され、また第El
番からEl+n番のセンサ素子により矩形波出力eB
出力されているとき矩形波出力eAの幅ΔAはセン
サ素子個数n個に、矩形波出力eBの幅ΔBはセン
サ素子個数m個にそれぞれ対応しているので矩形
波出力eAの中心位置O1はEp番素子からn/2個
づれたEp+o/2=Ec1番目の素子に対応している
ことがわかる。同様に矩形波出力eBの中心位置
O2はE1+n/2=Ec2番目素子に対応している。
又、更に検出精度を上げる為にはセンサ素子ピツ
チ間の内挿が必要であるが、これは出力信号の立
上り、立下り部を正確に包絡線検波した後に適当
なスライスレベルで波形整形しリニアセンサを駆
動するパルス列より充分周波数の高いクロツクパ
ルスを用いて中心位置を検出する事によつて達成
される。 このように投影直線パターンの位置は検出点か
ら得られるリニアセンサの矩形波出力波形の中心
位置をもとめることによりリニアセンサの素子番
号によつて位置付けすなわちリニアセンサを座標
軸とする座標値として得られる。 第9図J〜Mは、上記の方法で各々の検出点を
リニアセンサの座標値として示した図であり、座
標値e′11,e′12…e′17は検出点e11,e12,…e17にそ
れぞれ対応している。また以下座標値f′11〜f′19
検出点f11〜f19に、座標値e′21〜e′20は検出点e21
e20に、座標値f′21〜f′26は検出点f21〜f26にそれぞ
れ対応している。 また第10図に示したように矩形波出力eBを出
力するセンサ素子数mは他の矩形波出力eAを出力
するセンサ素子数nと異なつており、かつm>n
であることからこの矩形波出力eBが第7a図、第
7b図に示したような基準直線パターンによる投
影直線パターンの検出出力であることがわかる。
本実施例においては第18図、第19図の検出点
e15,f16,e25,f23がそれぞれ基準投影直線パター
ン22′,23′、を検出した検出点であり、
e′15,f′16,e′25,f′23がそれぞれの基準座標値で

ることがわかる。 そして、基準座標値e′15,f′16から基準投影直線
パターン22′の方程式が決定でき、基準座標値
e′25,f′23から基準投影直線パターン23′の方程
式が決定できる。また基準座標値e′15,f′16,e′25

f′23を基準として順序づけられる各座標値から他
の投影直線パターンの方程式が決定できる。例え
ば基準座標値e′15の次の座標値e′16と基準座標値
f′16の次の座標値f′17とから投影直線パターン2
0′fの方程式が決定できる。このように各々の
座標値から多数の投影直線パターンの方程式が決
定でき、かつこれら投影直線パターンは同じ平行
直線群に属するものはその平行性をくずすことは
ないので、これら多数の直線方程式を平均化する
ことにより、より正確な精密な検出結果が得られ
る。また、もとめた多数の方程式のそれぞれのピ
ツチP′も多数の値をもとめることができ、これら
を平均化して正確な、精密なピツチP′をもとめる
ことができる。このことは、本発明の大きな特徴
である。 次に第11図から第13図まで参照しながら、
リニアセンサにより検出された投影直線パターン
の方程式から仮想直線を生成し、この直線をもと
に投影直線パターン投影面と同一平面上に任意の
4点を決定し、この4点の変化から被検角膜の曲
面特性を測定する方法について述べる。第11図
は、被検角膜Cを測定光路に設置しないで反射鏡
90を測定光路内に挿入したときのリニアセンサ
15,16上へ直線パターン20,21を投影し
た場合を示している。このとき投影直線パターン
20″(第11図では、基準投影直線パターン2
2″,23″及び投影直線パターン20″e,2
0″f,21″d,21″eのみを選択して図示し
ているが)及び21″は前述の方法によりその直
線の方程式及びピツチpが決定される。そして次
に例えば投影直線パターン20″eを基準として
exPだけ離れた位置に傾きfxm2の仮想直線30
を生成でき、又、その反射側にgxPだけ離れた位
置に傾きfxm2の仮想直線31を生成することが
できる。同様な方法により、例えば直線パターン
像21″dを基準として、hxPだけ離れた位置に
傾きfxm1の直線32を、ixPだけ離れた位置に傾
きfxm1の直線33をそれぞれ生成できる。ここ
で係数e,f,g,h,i、は任意に選択できる
係数であり、普通f=1すなわち直線パターン像
の方程式の傾きm1及びm2と同じ傾きの仮想直線
を生成させる。また、係数e,g,h,iは、生
成される仮想直線の交点36,37,38、及び
39がマスクの中心24に対し対称となるように
選ばれる。第11図は、このように仮想直線が生
成された状態を示している。このように仮想直線
を生成すると被検角膜とのアライメント量の算出
が容易になることは、すでに原理説明で述べた通
りである。 次に装置を移動し、反射鏡90を退出させ測定
光路中に被検角膜を設置し、その被検角膜の曲面
特性によつて変化された光束による投影直線パタ
ーンをラインセンサで検出し、この直線パターン
から仮想直線をもとめる方法を第12図に示す。
なお以下の説明では被検角膜と測定光軸とのアラ
イメント調整は前述の原理説明で述べた方法です
でに完了しているものとする。 まず、被検角膜の曲面特性により、ピツチ
P′P″、傾きm1′,m2′にそれぞれ変化された投影
直線パターン20′,21′を検出し、その方程式
を算出することは上述したとおりである。次に第
11図で基準として投影直線パターン20″eに
対応する第12図の投影直線パターン20′eを
基準として第11図で仮想直線30を生成するた
めに利用したと同じ量の係数eをもつてexP″の
位置に仮想直線30′を生成する。なおこの仮想
直線30′の傾きは第11図で仮想直線30の傾
きfxm2の係数fをf=1とおいているので仮想
直線30′の傾きfxm2′の係数fも同様にf=1
としている。同様の方法で、投影直線パターン2
0′eを基準としてgxP″の位置に仮想直線31′
を、投影直線パターン21′dを基準として
hxP′の位置に仮想直線32′を、ixP′の位置に仮
想直線33′をそれぞれ生成する。そしてこれら
の仮想直線30′,31′,32′,33′から交点
36′,37′,38′,39′を得られるし、これ
ら4交点からその中心34′を得ることができる。 このようにして、もとめられた4点36〜39
(第11図)は検出面D上で被検角膜の曲面特性
により4点36′〜39′に変位する。この様子を
示すのが第13図である。そしてこの変位量をも
とに上述の第(3)〜(5)式によつて被検レンズの曲面
特性を算出することができる。本実施例のように
被検角膜を測定光路内に設置しないで平面反射鏡
90を挿入したときの仮想直線の4交点を基準点
とし、次に被検角膜を測定光路内に挿入したとき
の上記4交点の変位置をもとめる方法を使用する
と、上述の第3式は2本のリニアセンサが作る座
標系に対して全く不変となる為組立時にリニアセ
ンサの交差角及び交差位置の管理を一切行なう必
要がなくなるという大きな利点がある。 第14図は、以上のごとき演算処理を行なう為
の処理回路の一例をブロツク図で簡単に示すもの
である。リニアセンサドライバ100,101に
よつて駆動されるリニアセンサ15,16は第9
図B〜Cで示すごとき、まず、ドライブ回路60
によつて駆動された光源70の発光により、光束
制限マスク13aの直線開口パターン投影像によ
る検出出力信号を信号ライン102,103に送
出する。104はアナログスイツチであり、マイ
クロプロセツサ105によつてコントロールされ
る。マイクロプロセツサ105はリニアセンサ1
5をドライブするドライバ100よりリニアセン
サの走査開始パルス106により割込を受ける
と、アナログスイツチを制御して、リニアセンサ
15の出力がA/D変換器107に入力される様
にする。A/D変換器107は、ドライバ回路1
00からの第9図Aに示すようなリニアセンサ読
み出しパルス108により読み出されるリニアセ
ンサの1素子毎の出力をアナログ・デジタル変換
し、変換されたデジタル値をマイクロプロセツサ
に供給する。ここでA/D変換器107は、8ビ
ツト(1/256)程度の分解能を有し、かつリニ
アセンサの走査周波数より速い変換時間を有する
ものが選ばれる。マイクロプロセツサ105は、
1素子毎にデジタル値に変換されたリニアセンサ
15の出力を読み込み、RAM(ランダムアクセ
スメモリ)等で構成されるデータメモリ109に
逐次格納する。従つて、データメモリ109に
は、あらかじめ定められた位置(番地)より、リ
ニアセンサの最初の素子による出力から順にデジ
タル値として格納される。例えばリニアセンサが
1728素子のものであれば、1728個のデータ取り込
みが終了すると、マイクロプロセツサ105は、
それ以上のデータ取り込みをやめ、リニアセンサ
16を駆動する走査開始パルス110により、割
込を受けるのを待つ。割込を受けるとアナログス
イツチ104を制御してリニアセンサ読み出しパ
ルス111により読み出されるリニアセンサ16
の出力をデジタル値としてデータメモリ109に
引きつづき格納する。つぎにマイクロプロセツサ
105は、ドライブ回路1を制御して今まで発し
ていた光源70を消し、光源71を発光させる。
そして前述と同様の駆動により第9図D,Eの検
出出力をデジタル値としてデータメモリ109に
格納する。これで全ての測定データがデータメモ
リ109に械納された事になる。以後マイクロプ
ロセツサ105内の演算回路112はデータメモ
リ109に書き込まれたデータを基にして以下の
処理を行なう。 (1) 光束制限マスクの直線開口パターンの投影像
によつて生ずるリニアセンサ出力波形の中心位
置がリニアセンサの素子の何番目に位置するか
を検出する。 (2) 2本のリニアセンサが作る座標系に於いて、
各直線開口パターン像の方程式を求める。 (3) すでに述べた方法により、第12図の30′
〜33′のごとき仮想直線の方程式を生成し、
それらの交点として、第12図に示す4点3
6′〜39′の座標位置を求め、それより、その
中心位置34′を求める。 (4) あらかじめ、反射鏡90を測定光路に挿入し
た場合の4点の基準位置、36〜39及びその
中心34の座標位置と前項(3)で求められた各点
36′〜39′及び34′の座標位置より前記(3)
〜(5)式にしたがつて演算し被検角膜の第1主径
線の曲率半径R1、第2主径線の曲率半径R2
第1主径線角度θ及びアライメント量α,βを
求める。 以上の処理により求められた各値は、第14図
に示す表示器113、プリンター装置114に出
力される。なお第2主径線角度はθ+90゜となる
ことは言うまでもない。 また、表示器としては公知のCRTデイスプレ
イ装置をもち、アライメント量α,βは図形表示
すると測定上便利である。さらにアライメント量
α,βを電気信号として装置筐体駆動部117に
入力し、その信号に応じ電動駆動させればオート
アライメントも可能である。 以上の処理は、全てプログラムメモリ115に
記録されているプログラムに従つて行なわれる。
マイクロプロセツサによつて以上の様な処理を行
なう事は特殊なものでなく、関連する技術分野に
属する当業者にとつては容易に達成できるもので
ある。 本発明は以上に説明した実施例に限定されるも
のでなく、種々の変形例を有するものである。以
下にその2、3の例を開示する。 第15図は、本発明の第2の実施例を示す部分
光学配置図である。なお、照明光学系、固視光学
系は前述の第1実施例と同様であるので図示及び
説明は省略する。また同様の構成要素には同一の
符号を付して説明を省略する。 測定光学系2には、リレーレンズ14の後方に
第2リレーレンズ群87が配置されており、この
リレーレンズ群87とリレーレンズ14の間に前
記第16図に図示したマスク板9が配置されてい
る。マスク板9には、太い直線開口25aを少な
くとも1本と、細い直線開口251,252,…
259を平行に配列してなる平行直線群25と、
これと配列方向のことなる太線直線開口26a、
及び細い直線開口261,262,…269を平
行に配列してなる平行直線群26が形成されてい
る。各平行直線群に太い直線開口25a,26a
を形成したのは、他の直線開口の投影直線の方程
式をきめる際の基準とするためである。このマス
ク板9はリレーレンズ14によりその共役像を図
中MAの位置に作つている。第2リレーレンズ8
7の後方には、ダイクロイツクミラー86があ
り、このミラー87の反射及び透過光路がそれぞ
れ第1光路120、第2光路121を形成する。
第2光路121には、イメージロテータ125
が、予め定めた角度、光軸を中心に回転させるた
めに配置されている。また、第1光路120と第
2光路121は、ダイクロイツクミラー123で
合成され、このダイクロイツクミラー123の後
方には第3リレーレンズ124が配置され、その
後方にはリニアポジシヨンセンサ15が配置され
ている。リニアセンサ15は、リレーレンズ1
4、第2リレーレンズ群87及び第3リレーレン
ズ124によりその共役像を図中Dの位置に作ら
れる。そして、第2光路121内に前記したよう
にイメージロテータ125が配置されているの
で、リニアセンサ15はこの共役検出面D内で交
差する2本のリニアセンサと等価になる。 測定に際しては、発光源70(第6図参照)を
発光すると角膜Cからの反射光は、光束制限マス
ク9の平行直線群25,26でにより選択透過さ
れ、第1光路120を通つてリニアセンサ15上
に投影平行直線パターン群25′,26′として投
影され、この投影パターン群は第17図に示すよ
うにリニアセンサ15により検出点e1,e2…e6
して検出される。次に、発光源71(第6図参
照)に切り替えると、その角膜での反射光束は同
様にマスク9の平行直線群25,26で選択さ
れ、その選択光束は第2光路121を通り、その
イメージロテータで回転されて、第17図に示す
ようにリニアセンサ15が15′の位置に配置さ
れたと等価になり、平行直線群25,26の投影
平行直線パターン群25′,26′を検出点f1,f2
…f6として検出される。 以下、これら検出点をもとに仮想平行四辺形を
もとめ被検角膜の曲面特性を算出する。 前述の第1実施例(第6図)において、リニア
センサ15,16をそのリレーレンズ14による
共役面Dで互いに平行になるように配置しても測
定は可能である。 また第18図に示すように、リレーレンズ群8
7の後に平行平面ガラスからなる光束シフト手段
301を配し、これを光軸O1と垂直な軸を回転
軸として4つの位置(A)、(B)、(C)、(D)に回転変位す
れば、上述の第2実施例(第15図)において光
束制限マスク9で選択された角膜Cからの反射光
束は、シフトされて第19図に示すように1本の
リニアセンサ15が共役面D上で4本平行に配置
されたと等価になり、これより、各投影平行直線
パターン群25′,26′の各投影直線パターンの
2点が検出されるので、その方程式を決定でき、
これより仮想平行四辺形を作成し、前述の実施例
と同様に被検角膜Cの曲面特性を測定できる。 また第18図の光束シフト手段301のかわり
に、イメージロテータを光軸O1を回転軸として
回転すれば第17図に示すように各投影平行直線
パターン群が検出できることは前述の第2実施例
から、きわめて容易にわかるであろう。 またイメージロテータを回転するかわりに、第
20図に示すようにパルスモータ駆動回路303
で回転制御されるパルスモータ302でリニアセ
ンサ15を光軸O1を回転軸として回転して、投
影パターンを検出してもよい。 またリニア型発光素子アレイのかわりに、第3
0図に示すように、多数のオプテイカルフアイバ
510の一端を直線状に配列し、他端を円筒状に
束ねこのオプテイカルフアイバの円筒束他端にレ
ーザ光ガイド光学系511を内蔵した回転円板5
12をパルスモータ311で回転しながら半導体
レーザ512からのレーザ光をスキヤンさせても
よい。 第21図は、本発明の測定原理をコンタクトレ
ンズのベースカーブあるいは前面のカーブを測定
するラジアスメータに応用した実施例を示す光学
配置図である。第1実施例と同様の構成要素には
同一の符号を付して共通の構成要素の図示と説明
は省略する。 コンタクトレンズCLのベースカーブを測定す
る時は、コンタクトレンズの凸面を下にして、コ
ンタクトレンズ保持手段600の円筒状突出部6
10に保持される。 この円筒状突出部の底面には、第6図の反射鏡
90と同様の作用をする反射鏡602がはめ込ま
れている。コンタクトレンズCLを保持手段60
0に保持する前に、この反射鏡602を使つて基
準座標系の設定が出来るようになつている。 尚、本実施例においては、ポジシヨンセンサ1
5,16とマスク13a,13b(第6図参照)
のリレーレンズ14による共役面D、MAは、そ
れぞれ測定しようとするコンタクトレンズの後面
の焦点距離fCLより内側に位置するように設計す
る。 以上説明した測定原理、及び各実施例のマスク
手段には光束を選択的に透過させる直線開口を形
成した例を示したがこのかわりに光束を選択的に
反射する反射型直線パターンを利用しても本発明
と同一の作用効果が得られることは言うまでもな
い。 また、受光素子を走査駆動し、そして検出デー
タを演算処理する回路は、前述した回路に限ら
ず、必要なデータが得られそして前述した演算式
を処理できるならばどのような回路でもよく、当
業者には様々な回路が設計できるであろうことは
明らかであろう。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a device for measuring the radius of curvature of a curved surface, and more specifically, it can be applied to an off-salmometer that measures the radius of curvature of the cornea of a human eye and a radius meter that measures the radius of curvature of a contact lens. This invention relates to a curvature measuring device. In this specification, the principles and embodiments of the present invention will be mainly explained with respect to an ophthalmometer, but the present invention is not limited thereto, and the main diameter of a curved surface of a spherical surface or a toric curved surface having light reflectivity can be broadly described. The present invention can also be applied to a device that measures the radius of curvature of a line. The refractive power of the human cornea itself is approximately 45 Diopter, which is approximately 80% of the total refractive power of the entire eye, and approximately 75% of astigmatic eyes have corneal astigmatism, that is, the anterior surface of the cornea is not spherical but has a toric surface shape. This is due to what you are doing. Furthermore, when prescribing a contact lens, the base curve needs to be prescribed based on the radius of curvature of the principal axis of the anterior surface of the cornea of the eye in which the contact lens is to be worn. From these viewpoints, measuring the radius of curvature of the anterior surface of the cornea has important significance. In response to this demand, various types of off-salmometers have been put into practical use as devices for measuring the radius of curvature of the anterior surface of the cornea of the human eye. Both types of off-salmometers project one or more optotypes onto the cornea to be examined, and observe the size of the projected image or the position of its reflected image at the focal plane of an observation telescope.
The radius of curvature of the cornea to be examined and the corneal astigmatism axis were measured from the amount of change in the size of the projected image or the amount of relative positional shift of the reflected image of the optotype. In the ophthalmometer, especially when measuring the cornea of an astigmatic eye where the cornea has a toric surface shape, the first (strong principal meridian) and second principal meridian (weak principal meridian)
It is necessary to measure three measurable quantities: the radius of curvature and the angle in at least one main radial direction, and the conventional off-salmometer described above requires three stages of measurement to obtain these three measured values. It was. However, the human eye is always accompanied by physiological eyeball vibrations, and longer measurement times result in vibrations in the projected image due to eyeball vibrations, which leads to measurement errors and the need for frequent alignment adjustment operations during measurement. A big problem arose. As a device that solves the drawbacks of this conventional device,
For example, JP-A-56-18837, JP-A-56-18837,
66235 or US Pat. No. 4,159,867, the reflected image of the projected image from the cornea is detected by a one-dimensional or two-dimensional position sensor,
An apparatus is disclosed that measures the radius of curvature and main meridian angle of the cornea of an eye to be examined from the detected position. However, these devices, like the conventional off-salmometers in practical use, are of the type that uses a telescope to image the reflected image of the projection target from the cornea.
In order to improve measurement accuracy, the focal length of the telescope had to be increased, which had the disadvantage of increasing the size of the Ikioi device. Furthermore, since it is an imaging type, a focusing mechanism is required. Furthermore, the alignment between the device and the cornea to be examined and the alignment performed using this focusing telescope are inaccurate, and do not lead to shortening of measurement time or complete automation. Using a non-imaging optical system, the refractive properties of the optical system,
U.S. Patent No. 3880525 is a device that mainly measures the spherical refractive power and cylindrical refractive power of eyeglass lenses and their axial angles.
It is disclosed in the specification of No. This device irradiates a parallel light beam onto the eyeglass lens to be examined, selects the light beam deflected by the refractive characteristics of the lens by using a mask means having a point aperture, and selects the light beam from a plane placed at a distance shorter than the focal length of the lens to be examined. type image detector
The refractive characteristics of the lens to be tested are determined from the position of the projection point on the detector of the optical axis that has passed through the point aperture and is projected onto the imaging surface of the TV camera. However, this US patent specification only discloses the measurement of refractive properties in a refractive optical system, and does not disclose or suggest anything about measuring the radius of curvature of the reflective curved surface of a reflective optical system. moreover,
Since this device detects refractive characteristics using a point aperture, the above-mentioned flat image detector or TV camera must be used as the detection means, which not only makes the device expensive but also If dirt, dust, etc. adhere to the optical system or the detection surface of the device, the light beam that should pass through the point aperture is blocked by the dirt, dust, etc., and the refractive characteristics of the lens to be tested may not be measured. Therefore, the present invention solves the above-mentioned drawbacks of the conventional off-salmometers, and provides a curvature measurement device that can be applied to off-salmometers and radius meters, and is capable of automatic measurement using a non-imaging optical system. That is. Another object of the present invention is to use a non-imaging optical system to reduce the size of optical components that need to be inspected and operated by an examiner, such as an imaging telescope. It is an object of the present invention to provide a curvature measuring device that can automatically measure the radius of curvature without having any. Yet another object of the present invention is to provide excellent operability and reduce measurement time by automatically outputting information for alignment between the curved surface to be inspected and the optical axis of the device, which was done by collimation in conventional devices. The object of the present invention is to provide an automatic curvature measurement device that can be used. Still another object of the present invention is that by increasing the amount of information in the masking means, a detection means that is cheaper than a conventional ophthalmometer or an automatic lens meter can be used, and moreover, it is possible to prevent dust from entering the optical system or detection surface of the device. To provide a curvature measuring device capable of automatically measuring curvature, which is resistant to disturbance effects, highly accurate, and inexpensive, capable of measuring even in the presence of dust. Yet another object of the present invention is to provide a radius of curvature measuring device that does not require the installation or adjustment of a position sensor, has low assembly and adjustment costs, and is easy to maintain. According to the present invention, an illumination optical system having a light source and a collimator means for converting light from the light source into a parallel light beam; selecting a light beam reflected by a curved surface to be inspected from the light beam from the illumination optical system; In order to a detection optical system having a detection means for detecting reflected light; calculating the radius of the curved surface of the curved surface to be inspected from changes in the slope and pitch of a projected linear pattern corresponding to the linear pattern of the reflected light detected by the detection means; There is provided a curvature measuring device, wherein both the masking means and the detecting means are optically non-conjugate with the light source and are respectively arranged on different planes. In the present invention, "substantially within a plane" refers to a case where the straight line pattern (or detecting means) is actually arranged within one plane, and a case where the straight line pattern (or detecting means) is located at different locations, for example. This includes both cases in which it is constructed as if it were in one virtual plane by optical means. In the present invention, due to the above structural features,
Compared to conventional radius of curvature measuring devices, the device is smaller, takes less time to measure, is more resistant to external disturbances, has higher measurement accuracy, is more inexpensive, and can automatically measure the radius of curvature of the curved surface being tested. . Furthermore, since alignment information can be automatically output, measurement time can be further shortened and measurement accuracy can be improved. These advantages of the present invention are that, especially when the present invention is applied to an ophthalmometer, the ophthalmometer has high measurement accuracy that is not affected by eye vibration, is compact with a short measurement time, and enables automatic measurement at low cost. meter can be provided. Furthermore, if the present invention is applied to a so-called radius meter that measures the radius of curvature of the base curve or front surface of a contact lens, the target image is focused twice on the back surface of the contact lens and the center of curvature, and the objective lens at that time is Compared to conventional radius meters that measure the radius of curvature of base curves, etc. from the amount of movement, there is no need for a microscope optical system for target image observation and measurement using conventional radius meters. To provide a new type of radius meter that not only does not require any diopter adjustment that directly affects measurement accuracy, but also allows automatic measurement without personal errors between operators, has high measurement accuracy, and short measurement time. be able to. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The measurement principle and embodiments in which the present invention is applied to an off-salmometer for measuring the radius of curvature of the cornea will be described below with reference to the drawings. FIG. 1 is a perspective view for explaining the measurement principle of the present invention, and FIG. 2 is a plan view thereof. In these figures, consider an X 0 -Y 0 orthogonal coordinate system having an origin O 0 on the optical axis O 1 of the device. This X 0 −Y 0
It is assumed that the cornea C is placed a distance l in front of the plane including the coordinate system. This cornea C is its optical center
OC is shifted by E H in the direction parallel to the X 0 axis and EV in the direction parallel to the Y 0 axis, and the curve radius is
It is assumed that the first principal radial line (strong principal radial line) of R 1 is inclined by an angle θ with respect to an axis parallel to the X 0 axis. Further, the radius of curvature of the second principal meridian (weak principal meridian) is R 2 . The first main radius line and the second main radius line are orthogonal. Now, a mask MA, which will be described later, is placed within the plane created by this X 0 - Y 0 coordinate system, and is placed on the optical axis O 1 of the device at a distance d from the mask MA along the optical axis O 1 of the device. Assume that an X-Y orthogonal coordinate system having an origin O is assumed, and a detection plane D is placed on this X-Y coordinate plane. The master MA has a straight aperture 0 L 1 consisting of two parallel straight lines with a slope of 0 m 1 and a pitch of 0 P 1 , and a straight line opening 0 L 1 with a slope of 0 m 2 and a pitch of 0 P 1.
It has a linear aperture 0 L 2 composed of two parallel straight line groups with a pitch 0 P 2 . As shown in FIG. 2, the cornea C to be examined is illuminated with a circular light beam having a radius of φ/2. The light reflected by the cornea C of this illumination light beam is
It is selectively transmitted through a linear aperture consisting of a group of parallel straight lines 0 L 1 , 0 L 2 formed on a master MA that is separated by a distance l from the corneal apex OC, and is projected onto a detection surface D that is separated by a distance d from the master MA. Ru. The beam of light selected by the master MA reflected by the cornea C to be examined is projected on the detection surface D by a group of two projected parallel straight lines 0 L 1 ′ with an inclination of 0 m 1 ′ and a pitch of 0 P 1 ; It becomes a group of two projected parallel straight lines 0 L 2 ′ with pitch 0 m 2 ′ and pitch 0 P 2 ′. By detecting the projected parallel straight line groups 0 L 1 ′ and 0 L 2 ′ on the detection plane D, the pitch of the projected parallel straight line group 0 L 1 ′ is 0 P 1 ′,
If the slope changes to 0 m 1 ′, the pitch of the group of projected parallel straight lines 0 L 2 ′ changes to 0 P 2 ′, and the slope changes to 0 m 2 ′, then the slope 0 m ′ for each of these changes is given by the following formula. holds true. 0 m′=[A(l)sin 2 θ+B(l)cos 2 θ]+[A(l)
)-B(l)] sinθ・cosθ/ 0 m[A(l)-B(l)
] sin θ・cos θ + [A(l) cos 2 θ + B(l) sin 2 θ]
…(1) Also, the amount of change in pitch P′ is 0 P′/ 0 P=A 2 (l) sin 2 θ+B 2 (l) cos 2 θ+A 2 (l)
+B 2 (l) / 0 m 2 +1 [cos2θ+ 0 msin2θ]…(2), where [A(l)=1+2(l-d)/R 1 /2l/R 1 B(l )=1+2(ld)/ R2 /2l/ R2 ]. In this measurement principle, the parallel light beam reflected by the cornea C is selected by the linear aperture of the master MA, and this selected light beam is detected by the detection surface D. It is necessary to set the device so that the distance l, that is, the working distance, becomes a predetermined constant using a known working distance detecting device. Preferably, it is set so that l=O. Two sets of equations (1) and (2) are obtained from the two sets of projected parallel straight lines 0 L 1 ′ and 0 L 2 ′, a total of 4 equations, so the unknown number θ (the th 1 main radial line angle), R 1 (curvature radius of the 1st main radial line), and R 2 (curvature radius of the 2nd main radial line) can be determined. Solving the quadratic equations (1) and (2)
If determining R 1 , R 2 , and θ is complicated in terms of arithmetic processing and increases the cost of the processing mechanism and increases the processing time, the following intermediate arithmetic processing may be performed. FIG. 3a shows a group of parallel straight lines L 1 and L 2 formed by the linear light source of FIG. 2. FIG. The slope of L 1 is m 1 and the pitch is P 1 , and the slope of L 2 is m 2 and the pitch is P 2 as in FIG. 2. Now, consider a parallel line extending from one of the parallel straight lines L11 to a distance eP1 that is e times the pitch P1 , and a parallel line at a distance fP1 . Also, the distance gP 2 from one of the parallel straight lines L 2 L 21
Consider parallel lines with distance hP 2 and parallel lines with distance hP 2 .
A reference virtual parallelogram UVWQ is formed from these parallel lines, and these four vertices
The virtual coordinates of the x 0 −y 0 coordinate system are U ( 0 x 1 , 0 y 1 ), V
( 0 x 2 , 0 y 2 ), W ( 0 x 3 , 0 y 3 ), and Q ( 0 x 4 , 0 y 4 ). Figure 3b shows that the luminous flux reflected by the cornea C is
This is a diagram showing a projected parallel straight line group 0 L 1 ′ , 0 L 2 ′ that is selectively transmitted by the parallel straight line group 0 L 1 , 0 L 2 shown in the figure and projected onto the detection surface D, and this 0 L 1 ′ is 0 m 1 , pitch 0 P 1 ′,
As in Fig. 1, L 2 ′ changes to a slope of 0 m 2 ′ and a pitch of P 2 ′. This projected parallel straight line group 0 L 1 ′,
0 L 2 ' may be detected by a flat position sensor placed on the detection surface D, but now suppose that the distance is ξ in the X-axis direction and η in the Y-axis direction from the origin O of the X-Y coordinates. Assuming that detection is performed by linear position sensors S 1 and S 2 that intersect at an intersection angle γ with the origin O′ at the moved point, linear position sensor S 1 projects at detection points A, B, C, and D. A group of parallel straight lines is detected, and the linear position sensor S 2 detects a group of projected parallel straight lines at detection points E, H, G, and J. And detection point b,
The equation of one of the projected parallel straight lines L 11 ' is calculated from F, and the equation of L 21 ' is calculated from the detection points C and T. Similarly, the equations of the other one of the projected parallel straight lines L 12 ′ from the detection points A and E, and the equations of L 22 ′ from the detection points N and J can be calculated as L 11 ′,
The pitch P 1 ′ of L 12 ′ and the pitch P 2 ′ of L 21 ′ and L 22 ′ can be calculated. Then, from L 11 ′, the pitch P 1 ′ can be multiplied by the same magnification e as in Fig. 3a, and we can consider the parallel line ′′ of the pitch of eP 1 ′, and similarly, the parallel line ′ of the pitch of fP 1 ′ ′, L 21 ′ to gP 2 ′ Pitch parallel line ′′ hP 2 ′ Pitch parallel line ′′ can be considered, and these parallel lines ′′, ′′, ′′,
The first projected virtual parallelogram ``'''' can be found from U'Q'. The virtual coordinates of the four vertices of this virtual parallelogram in the X-Y coordinate system are defined as U′(x 1 ,
y 1 ), V′ (x 2 , y 2 ), W′ (x 3 , y 3 ), Q′ (x 4 , y 4 )
Then, the reference virtual parallelogram UVWQ in Fig. 3a
and the first projected virtual parallelogram in Fig. 3b.
U′V′W′Q′ corresponds, and this change is precisely related to the curved surface characteristics of the cornea to be examined. Now, the following coefficients and equations are defined for the four virtual points. A ij = ( 0 x i − x i ) − ( 0 x j − x j ) A ik = ( 0 x i − x i ) − ( 0 x k − x k ) B ij = ( 0 y i − y i ) − ( 0 y j y j ) B ik = ( 0 y i − y i ) − ( 0 y k − y k ) C ij = 0 x i0 x j C ik = 0 x i0 x k D ij = 0 y i0 y j C ik = 0 y i0 y k Equation (3a) Here, i, j, and k are assumed to be j or k with i as a reference. From the four virtual points, 12 combinations are possible. Using the above equation (3a), R 1 and R 2 regarding the radii of the two main system lines can be expressed by the following quadratic equation. 4(C ij D ij −C ij D ik )(l/R) 2 −2(A ij D ik +B ik C
−A ik D ij −B ij C ik ) (l/R) + (A ik B ij −A ij B ik )=
0...Equation (3b) Here, the Katsuko equation of the above coefficient is defined as follows. [p, q]≡p ij q ik −q ij p ik [p, q]=−[q, p] Here, if p and q are each A, B, C, or D, Equation (3b) is 4[C,D](l/R) 2 −{[B,C]−[A,D
]} (l/R)+[A,B]=0...It is expressed as equation (3c). l is the test cornea C and the master cornea as shown in Figure 1.
Refers to the distance between MAs. Therefore, as shown in Figure 1, two sets of projected parallel straight lines
The pitch of 0 L 1 ′, 0 L 2is 0 P 1 ′, 0 P 2 ′ and the slope is 0 m 1 ′, 0 m 2
, and create a projected virtual projection quadrilateral as shown in Figure 3b. From the four vertices forming the parallelogram, (3c)
By solving the quadratic equation of the equation, let the two roots be λ 1 and λ 2 , λ 1 = l/R 1 , λ 2 = l/R 2 ...(4a) As a result, the first principal meridian and the first The radii of curvature R 1 and R 2 of each of the two principal meridians are It can be found as Also, the angle θ that the first principal axis makes with the axis parallel to the X 0 axis is θ = 1/2tan -1 {[B, D] - [A, C] / [A,
D]+[B,C]}+90°...(5) In FIGS. 3a, 3b, and 3c, pitches 0 P 1 , 0 P 1 ,
0 P 2 , 0 P 1 ′, and 0 P 2 ′ with arbitrary magnifications e, f, g,
h respectively, but in reality, e=1, g=1, and the virtual parallelogram U 0 V 0 W 0 Q, and
The processing can be simplified by using U 0 ′V 0 ′W 0 ′Q′. Also, the coordinates of each vertex of the virtual parallelogram are X 0
The explanation has been made using the Y0 orthogonal coordinate system and the X-Y orthogonal coordinate system, but if we consider the oblique coordinate system X'-Y' coordinate system along with the arrangement of the linear sensors S1 and S2 , The coordinate transformation between the coordinate system and the X'-Y' oblique coordinate system is as shown in Figure 4, where the X axis and the
The axis and the Y' axis intersect at an angle β, and the origin O 2 of the X'-Y' coordinate system is offset from the origin O 1 of the X-Y drift system by ξ in the X-axis direction and η in the Y-axis direction. . At this time, X′−
The coordinate transformation from the Y coordinate system to the X-Y coordinate system is −( 0 x j −x j ) Substituting equation (6) into this, A ij = {( 0 x′ i sinα+ 0 y′ j sinβ+ξ) −(x′ i sinα+y′sinβ+ξ)} −{( 0 x ′ j sinα+ 0 y′ j sinβ+ξ) −(x′ j sinα−y′ j sinβ+ξ)} = sinα{( 0 x′ i −x′ i )−( 0 x′ j −x′ j )} + sinβ{ 0 y′ i −y′ i ) − ( 0 y′ j −y′ j )} = A′ ij sinα+β′ ij sinβ …(7a) (Here, the ``′” indicates the X′−Y′ oblique It means coordinate values or operators based on the orthogonal coordinate system, the same applies hereinafter.) Also, B ij = ( 0 y i − y i ) − ( 0 y j − y i ), and in the same calculation as above, B ij = cos β { ( 0 y′ i −y′ i ) −( 0 y′ j −y′ j )} −cosα {( 0 x′ i −x′ i ) −( 0 x′ j −x′ j )} = B′ ij cosβ−A′ ij cosα…(7b) Similarly, C ij =C′ ij sinα+D′ ij sinβ…(7c) D ij =D′ ij cosβ+C′ ij cosα…(7c). Here, [C, D], [B, C], [A, D], [A,
B], from equations (7a) to (7d), [C, D]=C ij D ik −D ij C ik = (C′ ij sinα+D′ ij sinβ) (D′ ik cosβ−C′ ik cosα ) −(D′ ij cosβ−C′ ij cosα) (C′ ik sinα+D′ ik sinβ) = (sinαsinβ+cosαsinβ) [C′, D′] Similarly, [B, C] = (sinαsinβ+sinβcosα) [A′, B′ ] [A, D]=sinαcogβ[A′,D′] −sinαcosα[A′,C′] +sinβcosβ[B′,D′] −sinβcosα[β′,C′] [A,B]=(sinαcosβ+cosαsinβ) [A', B'] Also, [B, C] - [A, D] = sin α cos β + cos α sin β) {[B', C'] - [A', D']} Therefore, equation (3c) is sin (α + β) ×{4[C′,D′] (l/R) 2 −2([B′,C′]−[A′,D′]) (l/R)+[A′,B′]}= 0 ...(8), and the inside { } of this equation (8) is a quadratic equation with the same form as equation (3c). From this, the quadratic equation of equation (3c) is independent of how the coordinate system is taken. It can be seen that it is an invariant equation. This shows that the degree of freedom in the arrangement of the two linear sensors as detectors is very large. In other words, as in the past, two linear sensors are
It is not necessary to place it on the orthogonal coordinate axes to the coordinate system;
This means that it can be used in the Y′ coordinate system,
The orthogonality accuracy and optical axis alignment of the linear sensor can be made irrelevant to the measurement accuracy without much consideration. During measurement, instead of setting the linear apertures 0 L 1 and 0 L 2 of the master MA in advance with respect to the oblique coordinate system Temporarily installed perpendicular to the axis O 1 , the proof light beam reflected by this plane reflecting mirror is transmitted and selected by the linear apertures 0 L 1 and 0 L 2 of the master MA, and the projection parallel straight line group 0 L 1 on the conjugate detection plane D is transmitted. ′, 0 L 2 ′ are detected by linear sensors S 1 and S 2 placed on the X′ and Y′ axes of the oblique coordinate system X′-Y′ coordinates, and a virtual parallelogram is created from this detection. Let U, V, W, and Q be a reference projection virtual parallelogram, remove the plane reflecting mirror, and irradiate the test cornea C with an illumination light beam to create the projection virtual parallelogram U′V′W′Q′. The curved surface characteristics of the cornea to be examined can be determined from these reference projected virtual parallelogram and projected virtual parallelogram. In this case, the biparallelogram has an oblique coordinate system that can be selected arbitrarily.
This means that the coordinate system is considered only for the X'-Y' coordinate system, and this oblique coordinate system According to the present invention, the arrangement of the linear sensors S 1 and S 2 does not require any adjustment in terms of assembly or maintenance, which is an unrelated invariant equation with respect to the quadratic equation for calculation of . It has a very beneficial effect. The axial direction of the cornea to be examined is given by equation (5). Equation (5) is based on the orthogonal coordinate system, but the oblique coordinate system
When sensors S 1 and S 2 are located at X'-Y', the results obtained in the oblique coordinate system can be calculated using the following equation as the axial direction when using the orthogonal coordinate system. θ=1/2tan -1 X{ocs2β[B′,D′]−cos(α−β)・([A′,D
′]+[B′,C′]cog2α[A′,C′]/sin2α[B′
,D′]+sin(α+β)([A′,D′]+[B′+C′]
)−sin2α[A′,C′]}…(9) Next, the principle of measuring the amount of deviation in the horizontal and vertical directions (hereinafter referred to as alignment amount) between the vertex of the cornea and the optical axis O1 of the device is based on Fig. 5. Explain. X 0 - Y 0 , the calculation of the alignment amount using the X - Y orthogonal coordinate system is a group of parallel straight lines 0 L 1 of pitch 0 P 1 and pitch 0 L 1 arranged symmetrically at the same angle γ with respect to the Y 0 axis.
Similarly, any one straight line L 11 , the straight line from L 21 to e′P 1 of the parallel straight line group 0 L 2 of 0 P 2,
f′P 1 , gP 2 , h′P 2 , Q
, and the four vertices of the virtual parallelogram are X 0
Axis, Y Take it to match the 0 axis. That is, if the virtual parallelogram is made symmetrically with respect to the measurement optical axis O 1 , the center of this virtual parallelogram will coincide with the measurement optical axis O 1 . Next, measure the cornea to be examined, detect a group of parallel projection straight lines L′ 1 and L′ 2 , and draw straight lines ′ and ′ at e′P′ 1 from the parallel projection straight line L′ 11 .
Similarly, the straight line ′′ at f′P′ 1 , ′′ at g′P 2 ′, h
′P′ 2
Subtract ′′ from the first projected virtual parallelogram ′′
Create W' Q '. The four vertices of this first projected virtual parallelogram are in the X-Y coordinate system '(x 1 , y 1 ), '(x 2 ,
y 2 ), ′(x 3 , y 3 ), ′(x 4 , y 4 ), and from the coordinates of these four vertices, the horizontal alignment amount α and the vertical alignment amount β can be calculated between the mask MA and the detection surface D. The distance d is involved and is expressed by the following equation. When measuring in the oblique coordinate system 2 ) ( 0 x 3 , 0 y 3 ) ( 0 x 4 , 0
y4 )
Then, set the virtual point so that 0 x 1 + 0 x 2 + 0 x 3 + 0 x 4 = 0 0 y 1 + 0 y 2 + 0 y 3 + 0 y 4 = 0...(12) Bye. Since the horizontal alignment amount α and the vertical alignment amount β are each given by equation (10), if we convert equation (12) using equation (6), So, if we convert equation (10) using equation (6) in the same way, we get becomes. The amount of alignment is calculated using the coordinates ( 0 x′ i , 0 y′ i ) of the initial virtual point ( 0 x i , 0 y i ) in the oblique coordinate system when the test cornea is not measured and the test cornea in the measurement system. The coordinates (x′ i ,
y′ i ), the following equation can be obtained from equations (13) and (14). This formula represents the amount of alignment. As described above, with this measurement principle, the radius of curvature of the tested cornea can be calculated using an invariant equation that is independent of the coordinate system, but oblique-orthogonal coordinate transformation is required in the axial direction and alignment amount. Then,
It is necessary to convert equations (12) and (15), but if the calculation mechanism is complicated, the measurement coordinates (x′,
After performing orthogonal coordinate transformation from y′) using equation (6), the axial direction and alignment amount may be calculated using equations (5) and (10) using the orthogonal coordinate system. In this way, in the present invention, the group of parallel straight lines L 1 ,
If we create a symmetrical virtual parallelogram from L 2 to the optical axis O, then insert the cornea to be examined into the measurement optical system and create a similar projected virtual parallelogram from the projected parallel straight line images. , the amount of alignment can be calculated, and when calculating this amount of alignment, it means that the curved surface characteristics of the cornea to be examined, that is, the radius of curvature of the first and second principal meridians and their inclination angles can be measured independently without knowing anything. There is. With conventional off-salmometers, there is no way to calculate the amount of alignment numerically. First, while observing the cornea to be measured with a measuring telescope, This is very advantageous considering that the alignment was done by visual measurement, and the step of calculating the curved surface characteristics of the cornea to be examined and the step of calculating the amount of alignment can be performed as numerical calculations independently or in parallel. Automatic alignment is also possible by electrically inputting it to the , and the calculation time can be shortened. Also, when creating a virtual parallelogram, a straight line
A virtual parallelogram was created by multiplying the pitch of the straight line group to which these straight lines belong to L 11 and L 21 by n and drawing a virtual straight line parallel to the slope of the straight lines L 11 and L 21 .
The method of creating a virtual parallelogram is not limited to this, but as shown in Figure 3C, for straight line L 11 ,
An imaginary straight line l 11 with an inclination of angle β, and a straight line
Needless to say, it is also possible to create a virtual straight line l 21 having an inclination of angle α with respect to L 21 and create a virtual parallelogram uvwq based on the created virtual straight lines l 11 and l 21 . Therefore, the measurement principle of the present application is not changed. Examples of the present invention will be described below. FIG. 6 is an optical layout diagram showing an embodiment of the present invention. This embodiment is an off-salmometer that utilizes the measurement principle described above. Furthermore, in this embodiment, two linear position sensors are used as detectors in combination with a half mirror so as to intersect obliquely within the conjugate detection plane D, but the present invention is not limited to this. Furthermore, it is clear from the above explanation of the principle that detection can be performed using a planar position sensor or two intersecting linear position sensors. As light sources for the illumination optical system 1, two infrared light emitting diodes 70 and 71 having different emission wavelengths are used. Light from the light emitting diode 70 passes through the dichroic surface 72a of the dichroic prism 32 and enters the condenser lens 7. On the other hand, the light from the light emitting diode 71 is transmitted to the dichroic surface 7.
2a is reflected and similarly enters the condenser lens 7. The light emitted from the condenser lens 7 passes through a pinhole in the pinhole plate 10, is made into a parallel beam by a collimator lens 73 whose focal point is at this pinhole, and is then tilted onto the optical axis O1 of the device. It is reflected by the provided micromirror 34, and the optical axis
The cornea C to be examined is irradiated parallel to O 1 . The fixation optical system 3 uses a half mirror 84 tilted in the illumination optical system 1 to illuminate the fixation target image onto the subject's eye. A dichroic mirror 86 is arranged behind the relay lens 14 and divides the optical path behind it into a first optical path 120 and a second optical path 121. A mask 13a is provided in the first optical path, and a mask 13a is provided in the second optical path 121.
Masks 13b are arranged respectively. The light beam that has passed through the mask 13a is further divided into two by a half mirror 303, and the reflected light beam enters the linear position sensor 15 and the transmitted light beam enters the linear position sensor 16. Similarly, the light flux that has passed through the mask 13b is also reflected and transmitted by the half mirror 303, and enters the linear sensors 15 and 16, respectively. Here, the linear sensors 15 and 16 are arranged by the relay lens 14 so as to intersect with each other within the conjugate detection surface D thereof. In addition, the masks 13a and 13b are connected to the relay lens 14.
Therefore, each conjugate image is formed at the position MA in the figure. These conjugate planes MA and D are in an optically non-conjugate relationship with the pinhole 10, respectively. FIGS. 7a and 7b are diagrams showing mask patterns of the aforementioned light flux limiting masks 13a and 13b, respectively. The mask 13a has a parallel straight line group 20 consisting of a plurality of straight line patterns with a slope m2 and a pitch p. Furthermore, at least one of the parallel straight line groups 20 has a reference straight line pattern 22 having a different thickness so as to be distinguishable from other straight line patterns. Similarly, the mask 13b has a reference straight line pattern 23 with a slope m 1 ,
It has a group of parallel straight lines 21 with pitch p. Here, in this embodiment, the reference straight line pattern 22,
No. 23 was distinguished from other straight line patterns by having a difference in thickness, but the present invention is not limited to this, and it may also be distinguished by having a difference in light transmittance or transmission wavelength characteristics. Alternatively, all straight lines may be the same, and the pitch at a specific location may be changed to serve as a reference straight line. Parallel straight lines 20 and 21 of the masks 13a and 13b each have an intersection angle of θ on the common conjugate plane MA of the masks 13a and 13b formed by the relay lens 14 in FIG. 6, and their bisector 24 is It is configured such that the angle at which it intersects with a certain reference axis 25 is ε. In this embodiment, θ=90° and ε=90. Note that the pitches of the groups of parallel straight lines 20 and 21 are selected to be the same value P, which is different from the mask 13.
This is only to facilitate the production of a and 13b.
Groups of parallel straight lines with different pitches may be used, and the pitches of the straight line patterns in one group of parallel straight lines do not need to be the same. Further, the angles θ and ε can also be arbitrarily selected. FIG. 8 is a diagram showing the projection relationship of the mask pattern image onto the linear sensor when the linear sensor detects the mask pattern image. As shown in FIG. 8, the linear sensors 15 and 16 shown in FIG. 6 are arranged by means of a relay lens 14 such that they have a crossing angle γ on a common conjugate plane, that is, a detection plane D. And this linear sensor 15, 16
Due to the cornea C to be examined above, the light beam having the curved surface characteristic information passes through masks 13a, 13b, and the parallel straight line group 20 of the mask 13a projects straight line patterns 20'a, 20'b, 20'b, 22'...2
Projected as 0'h. Similarly, the parallel straight line group 21 of the mask 13b is the projected straight line pattern 21'a, 2
1'b...23'...21'i. These projected straight line patterns are projected at pitches p' and p'' due to the curved surface characteristics of the cornea C to be examined, their intersection angle is at θ', and their bisector 24' is at the reference axis 2.
The angle intersecting 5' is changed to ε'. During measurement, first, the first light is emitted by the light source 70.
A measurement optical path is formed, and projected linear patterns 20'a, 20'b...22'...20'h are formed by the mask 13a.
is projected onto the linear sensors 15 and 16. Here, the projected linear patterns 20'a, 20'b...20'h are detected by the linear sensor 15 as detection points e11 , e12 ... e17 , respectively. At the same time, the linear sensor 16 also detects the detection points f 11 , f 12 , . . . f 19 . Next, when the light source 71 is made to emit light, a second measurement optical path is formed, and the linear patterns 21'a, 21'b...23'...21'i projected by the mask 13b are projected onto the linear sensors 15 and 16. . Here, the linear sensor 15 projects straight line patterns 21'a,
21'b...23'...21'i are the detection points e 21 and
Detected as e 22 ...e 29 , e 20 . Similarly, the detection points f 21 , f 22 , . . . f 26 are detected by the linear sensor 16 as well. 9A to 9M are timing charts showing the linear sensor output and subsequent calculations when the linear sensor detects the projected linear pattern. (A)
is a pulse train for reading and driving the detection output of the linear sensor, and when this pulse is input to the linear sensor, the linear sensor sequentially outputs the detection output accordingly. (B) shows linear patterns 20'a, 20'b...22'...2 projected onto the linear sensor 15.
It shows the detection output waveform (envelope) from the linear sensor 15 when 0'h is projected. This (B)
The output waveform has a rise in the output level corresponding to the detection points e 11 , e 12 . . . e 17 .
Similarly, (C) shows the detection output waveform of the linear image patterns 20'a, 20'b...20'h by the linear sensor 16,
(D) is a straight line pattern 21' created by the linear sensor 15.
Detection output waveforms of a, 21'b...23'...21'i,
(E) is a straight line pattern 2 projected by the linear sensor 16
1'a, 21'b...23'...21'i are detected output waveforms. (F) ~ (I) are the detection output waveforms (B) ~
This is the rectangular wave output waveform obtained by shaping (E) into a rectangular wave using a Schmitt trigger circuit, and the output waveform (F) ~
(I) corresponds to output waveforms (B) to (E), respectively.
Next, the center position of each rectangular wave of the obtained rectangular wave output waveforms (F) to (I) is found, and this center position is positioned using the sensor element number of the linear sensor as a scale. That is, as shown in FIG. 10, E 1 , E 2 . . .
A rectangular wave output e A is outputted by the sensor elements numbered Ep to E p+o of the linear sensor LNS consisting of N sensor elements numbered E N-1 and E N , and the sensor element number E
When a rectangular wave output e B is output from the sensor elements numbered E l + n , the width Δ A of the rectangular wave output e A is equal to the number of sensor elements n, and the width Δ B of the rectangular wave output e B is the sensor Since each corresponds to m elements, the center position O 1 of the rectangular wave output e A corresponds to the element E p + o / 2 = E c 1 , which is n/2 elements from the E p element. I understand. Similarly, the center position of the square wave output e B
O 2 corresponds to E 1+n /2=E c second element.
In addition, in order to further improve detection accuracy, interpolation between sensor element pitches is necessary, but this is done by accurately detecting the envelope of the rising and falling parts of the output signal, and then shaping the waveform at an appropriate slice level and linearizing it. This is accomplished by detecting the center position using clock pulses that have a sufficiently higher frequency than the pulse train that drives the sensor. In this way, the position of the projected linear pattern can be obtained by determining the center position of the rectangular wave output waveform of the linear sensor obtained from the detection point, and by positioning it by the element number of the linear sensor, that is, as a coordinate value with the linear sensor as the coordinate axis. FIGS. 9 J to M are diagrams showing each detection point as the coordinate value of the linear sensor using the above method, and the coordinate values e' 11 , e' 12 ... e' 17 are the detection points e 11 , e 12 ,...e 17 respectively. Further, the following coordinate values f' 11 to f' 19 correspond to detection points f 11 to f 19 , and coordinate values e' 21 to e' 20 correspond to detection points e 21 to
At e 20 , coordinate values f' 21 to f' 26 correspond to detection points f 21 to f 26 , respectively. Furthermore, as shown in FIG. 10, the number m of sensor elements that output the rectangular wave output e B is different from the number n of sensor elements that output the other rectangular wave output e A , and m>n
Therefore, it can be seen that this rectangular wave output e B is the detection output of the projected straight line pattern based on the reference straight line pattern as shown in FIGS. 7a and 7b.
In this example, the detection points shown in FIGS. 18 and 19 are
e 15 , f 16 , e 25 , and f 23 are detection points at which the reference projected straight line patterns 22' and 23' are detected, respectively;
It can be seen that e′ 15 , f′ 16 , e′ 25 , and f′ 23 are the respective reference coordinate values. Then, the equation of the standard projected straight line pattern 22' can be determined from the standard coordinate values e' 15 and f' 16 , and the standard coordinate value
The equation of the reference projected straight line pattern 23' can be determined from e' 25 and f' 23 . Also, the reference coordinate values e′ 15 , f′ 16 , e′ 25

Equations of other projected straight line patterns can be determined from each coordinate value ordered with f′ 23 as a reference. For example, the next coordinate value e′ 16 after the reference coordinate value e′ 15 and the reference coordinate value
Projected straight line pattern 2 from the next coordinate value f′ 17 of f′ 16
The equation for 0'f can be determined. In this way, the equations of a large number of projected straight line patterns can be determined from each coordinate value, and since these projected straight line patterns do not lose their parallelism if they belong to the same parallel straight line group, these many straight line equations can be averaged. By doing so, more accurate and precise detection results can be obtained. Furthermore, it is possible to obtain a large number of values for the pitch P' of each of the large number of equations obtained, and by averaging these values, it is possible to obtain an accurate and precise pitch P'. This is a major feature of the present invention. Next, while referring to Figures 11 to 13,
A virtual straight line is generated from the equation of the projected straight line pattern detected by the linear sensor, and based on this straight line, four arbitrary points are determined on the same plane as the projected straight line pattern projection plane, and changes in these four points are used to determine the A method for measuring the curved surface characteristics of the cornea will be described. FIG. 11 shows the case where the linear patterns 20 and 21 are projected onto the linear sensors 15 and 16 when the reflecting mirror 90 is inserted into the measurement optical path without the cornea C to be examined being placed in the measurement optical path. At this time, the projected straight line pattern 20'' (in FIG. 11, the reference projected straight line pattern 2
2″, 23″ and projected straight line pattern 20″e, 2
Although only 0''f, 21''d, 21''e are selected and illustrated) and 21'', their straight line equations and pitch p are determined by the method described above. Then, for example, using the projected straight line pattern 20''e as a reference,
An imaginary straight line 30 with an inclination of fxm 2 at a position exP apart
It is also possible to generate a virtual straight line 31 with an inclination fxm 2 at a position separated by gxP on the reflection side. Using a similar method, for example, with the straight line pattern image 21''d as a reference, a straight line 32 with an inclination of fxm 1 can be generated at a position separated by hxP, and a straight line 33 with an inclination of fxm 1 can be generated at a position separated by ixP. Here, the coefficient e, f, g, h, and i are coefficients that can be selected arbitrarily, and usually generate a virtual straight line with the same slope as f=1, that is, the slopes m 1 and m 2 of the linear pattern image equation. , g, h, and i are selected so that the intersection points 36, 37, 38, and 39 of the generated virtual straight lines are symmetrical with respect to the center 24 of the mask. As already mentioned in the principle explanation, generating a virtual straight line in this way makes it easier to calculate the amount of alignment with the test cornea.Next, move the device and A method in which the mirror 90 is withdrawn, the cornea to be examined is placed in the measurement optical path, a line sensor is used to detect a projected straight line pattern by a light beam that is changed depending on the curved surface characteristics of the cornea to be examined, and a virtual straight line is determined from this straight line pattern. is shown in FIG.
In the following explanation, it is assumed that alignment adjustment between the cornea to be examined and the measurement optical axis has already been completed by the method described in the explanation of the principle above. First, due to the curved surface characteristics of the cornea to be examined, the pitch
As described above, the projected straight line patterns 20' and 21' whose slopes have been changed to P'P'' and slopes m 1 ' and m 2 ', respectively, are detected and their equations are calculated. The position of exP'' with the same amount of coefficient e as used to generate the virtual straight line 30 in FIG. A virtual straight line 30' is generated.The slope of this virtual straight line 30' is determined by setting the coefficient f of the slope fxm 2 of the virtual straight line 30 to f= 1 in FIG. Similarly, the coefficient f is f=1
It is said that In the same way, projected straight line pattern 2
Virtual straight line 31' at position gxP'' with 0'e as reference
, with the projected straight line pattern 21'd as a reference.
A virtual straight line 32' is generated at the position hxP', and a virtual straight line 33' is generated at the position ixP'. Intersection points 36', 37', 38' and 39' can be obtained from these virtual straight lines 30', 31', 32' and 33', and the center 34' can be obtained from these four intersection points. In this way, the four points sought were 36-39.
(FIG. 11), four points 36' to 39' are displaced on the detection surface D depending on the curved surface characteristics of the cornea to be examined. FIG. 13 shows this situation. Based on this amount of displacement, the curved surface characteristics of the lens to be tested can be calculated using the above-mentioned equations (3) to (5). As in this embodiment, when the plane reflector 90 is inserted without placing the cornea to be examined in the measurement optical path, the four intersections of virtual straight lines are used as reference points, and when the cornea to be examined is then inserted into the measurement optical path, If the above method of determining the displacement positions of the four intersection points is used, the third equation described above becomes completely unchanged with respect to the coordinate system created by the two linear sensors, so there is no need to manage the intersection angle and intersection position of the linear sensors at the time of assembly. The big advantage is that you don't have to do it. FIG. 14 is a simple block diagram showing an example of a processing circuit for performing the above-mentioned arithmetic processing. The linear sensors 15 and 16 driven by the linear sensor drivers 100 and 101 are the ninth
As shown in FIGS. B to C, first, the drive circuit 60
Detection output signals based on the linear aperture pattern projected image of the light flux limiting mask 13a are sent to the signal lines 102 and 103 by the light emission of the light source 70 driven by the light flux limiting mask 13a. 104 is an analog switch, which is controlled by a microprocessor 105. Microprocessor 105 is linear sensor 1
When the linear sensor scan start pulse 106 is interrupted by the driver 100 that drives the linear sensor 15, the analog switch is controlled so that the output of the linear sensor 15 is input to the A/D converter 107. The A/D converter 107 is the driver circuit 1
The output of each element of the linear sensor read by the linear sensor read pulse 108 as shown in FIG. 9A from 00 is converted from analog to digital, and the converted digital value is supplied to the microprocessor. Here, the A/D converter 107 is selected to have a resolution of about 8 bits (1/256) and a conversion time faster than the scanning frequency of the linear sensor. The microprocessor 105 is
The output of the linear sensor 15 converted into a digital value for each element is read and sequentially stored in a data memory 109 constituted by a RAM (random access memory) or the like. Therefore, the output from the first element of the linear sensor is sequentially stored as a digital value in the data memory 109 from a predetermined position (address). For example, a linear sensor
If it is a device with 1728 elements, when the data acquisition of 1728 pieces is completed, the microprocessor 105
It stops taking in any more data and waits for an interruption by the scan start pulse 110 that drives the linear sensor 16. When receiving an interrupt, the linear sensor 16 controls the analog switch 104 and reads out the linear sensor readout pulse 111.
The output is continuously stored in the data memory 109 as a digital value. Next, the microprocessor 105 controls the drive circuit 1 to turn off the light source 70 that has been emitting light and causes the light source 71 to emit light.
Then, the detection outputs shown in FIGS. 9D and 9E are stored in the data memory 109 as digital values by driving in the same manner as described above. All measurement data has now been stored in the data memory 109. Thereafter, the arithmetic circuit 112 in the microprocessor 105 performs the following processing based on the data written in the data memory 109. (1) Detecting which element of the linear sensor the center position of the linear sensor output waveform generated by the projected image of the linear aperture pattern of the light flux limiting mask is located. (2) In the coordinate system created by the two linear sensors,
Find the equation for each linear aperture pattern image. (3) 30' in Figure 12 by the method already described.
Generate the equation of a virtual straight line such as ~33',
As their intersection points, the four points 3 shown in Figure 12 are
The coordinate positions of 6' to 39' are determined, and then the center position 34' is determined. (4) When the reflecting mirror 90 is inserted into the measurement optical path in advance, the four reference positions 36 to 39 and the coordinate positions of the center 34 and each point 36' to 39' and 34 found in the previous section (3) From the coordinate position of ′, the above (3)
The radius of curvature R 1 of the first principal meridian of the cornea to be examined, the radius of curvature R 2 of the second principal meridian, calculated according to equation (5),
The first principal meridian angle θ and alignment amounts α and β are determined. Each value obtained through the above processing is output to the display 113 and printer device 114 shown in FIG. 14. It goes without saying that the second principal meridian angle is θ+90°. Furthermore, a well-known CRT display device is used as a display, and it is convenient for measurement to display the alignment amounts α and β graphically. Furthermore, automatic alignment is also possible by inputting the alignment amounts α and β as electrical signals to the device housing drive section 117 and driving the device electrically in accordance with the signals. All of the above processing is performed according to the program recorded in the program memory 115.
It is not unusual for a microprocessor to perform the above processing, and can be easily accomplished by those skilled in the relevant technical field. The present invention is not limited to the embodiments described above, but includes various modifications. A few examples will be disclosed below. FIG. 15 is a partial optical arrangement diagram showing a second embodiment of the present invention. Note that the illumination optical system and the fixation optical system are the same as those in the first embodiment described above, so illustration and description thereof will be omitted. Further, similar components are given the same reference numerals and explanations are omitted. In the measurement optical system 2, a second relay lens group 87 is arranged behind the relay lens 14, and the mask plate 9 shown in FIG. 16 is arranged between this relay lens group 87 and the relay lens 14. ing. The mask plate 9 has at least one thick straight opening 25a and thin straight openings 251, 252, . . .
A parallel straight line group 25 formed by arranging 259 in parallel,
A thick line straight opening 26a having a different arrangement direction from this,
A parallel straight line group 26 is formed by arranging thin straight line openings 261, 262, . . . 269 in parallel. Thick straight openings 25a, 26a in each parallel straight line group
was formed to serve as a reference when determining the equation of the projected straight line of other straight apertures. A conjugate image of this mask plate 9 is created at a position MA in the figure by a relay lens 14. Second relay lens 8
Behind the mirror 7 is a dichroic mirror 86, and the reflected and transmitted optical paths of this mirror 87 form a first optical path 120 and a second optical path 121, respectively.
An image rotator 125 is provided in the second optical path 121.
is arranged to rotate around the optical axis at a predetermined angle. Further, the first optical path 120 and the second optical path 121 are combined by a dichroic mirror 123, a third relay lens 124 is arranged behind this dichroic mirror 123, and a linear position sensor 15 is arranged behind it. has been done. The linear sensor 15 has a relay lens 1
4. A conjugate image thereof is created at position D in the figure by the second relay lens group 87 and the third relay lens 124. Since the image rotator 125 is disposed within the second optical path 121 as described above, the linear sensor 15 is equivalent to two linear sensors intersecting within this conjugate detection plane D. During measurement, when the light emitting source 70 (see FIG. 6) emits light, the reflected light from the cornea C is selectively transmitted by the group of parallel straight lines 25 and 26 of the light flux limiting mask 9, and passes through the first optical path 120 to the linear sensor. 15 as a projected parallel straight line pattern group 25', 26', and this projected pattern group is detected by the linear sensor 15 as detection points e 1 , e 2 . . . e 6 as shown in FIG. Next, when switching to the light emitting source 71 (see FIG. 6), the light beam reflected by the cornea is similarly selected by the group of parallel straight lines 25 and 26 of the mask 9, and the selected light beam passes through the second optical path 121, Rotated by the image rotator, it becomes equivalent to placing the linear sensor 15 at the position 15' as shown in FIG. 17, and detects the projected parallel straight line pattern groups 25' and 26' of the parallel straight line groups 25 and 26. Points f 1 , f 2
...detected as f 6 . Thereafter, a virtual parallelogram is found based on these detection points and the curved surface characteristics of the cornea to be examined are calculated. In the first embodiment described above (FIG. 6), measurement is possible even if the linear sensors 15 and 16 are arranged so that the conjugate plane D of the relay lens 14 is parallel to each other. In addition, as shown in FIG. 18, the relay lens group 8
After 7, a light beam shifting means 301 made of parallel plane glass is arranged, and this is rotated to four positions (A), (B), (C), and (D) with the axis perpendicular to the optical axis O1 as the rotation axis. If the displacement occurs, the reflected light beam from the cornea C selected by the light beam limiting mask 9 in the above-mentioned second embodiment (FIG. 15) is shifted and the one linear sensor 15 is conjugated as shown in FIG. This is equivalent to 4 lines arranged in parallel on plane D, and from this, two points of each projected straight line pattern of each projected parallel straight line pattern group 25', 26' are detected, so the equation can be determined.
A virtual parallelogram is created from this, and the curved surface characteristics of the cornea C to be examined can be measured in the same manner as in the above embodiment. Furthermore, in place of the light flux shifting means 301 in FIG. 18, if the image rotator is rotated about the optical axis O1 , each projected parallel line pattern group can be detected as shown in FIG. 17, as described in the second embodiment. It will be seen quite easily from the example. Also, instead of rotating the image rotator, a pulse motor drive circuit 303 is used as shown in FIG.
The projection pattern may be detected by rotating the linear sensor 15 with the optical axis O1 as the rotation axis using a pulse motor 302 whose rotation is controlled by the pulse motor 302. Also, instead of a linear light emitting element array, a third
As shown in FIG. 0, one end of a large number of optical fibers 510 is arranged linearly, the other end is bundled into a cylindrical shape, and the other end of the cylindrical bundle of optical fibers is a rotating circle with a built-in laser light guide optical system 511. Board 5
The laser beam from the semiconductor laser 512 may be scanned while rotating the semiconductor laser 12 with the pulse motor 311. FIG. 21 is an optical layout diagram showing an embodiment in which the measurement principle of the present invention is applied to a radius meter for measuring the base curve or front curve of a contact lens. Components similar to those in the first embodiment are given the same reference numerals, and illustrations and explanations of the common components are omitted. When measuring the base curve of the contact lens CL, hold the cylindrical protrusion 6 of the contact lens holding means 600 with the convex surface of the contact lens facing down.
It is held at 10. A reflecting mirror 602 having a similar function to the reflecting mirror 90 shown in FIG. 6 is fitted into the bottom surface of this cylindrical projection. Contact lens CL holding means 60
The reference coordinate system can be set using this reflecting mirror 602 before holding it at 0. In this embodiment, the position sensor 1
5, 16 and masks 13a, 13b (see Figure 6)
The conjugate planes D and MA of the relay lens 14 are designed to be located inside the focal length f CL of the rear surface of the contact lens to be measured. Although the measurement principle explained above and the example in which the mask means of each embodiment is formed with a linear aperture that selectively transmits the luminous flux is shown, a reflective linear pattern that selectively reflects the luminous flux may be used instead. It goes without saying that the same effects as those of the present invention can be obtained. Furthermore, the circuit that scans and drives the light-receiving element and processes the detected data is not limited to the circuit described above, but may be any circuit as long as it can obtain the necessary data and process the arithmetic expressions described above. It will be apparent to those skilled in the art that a variety of circuits could be designed.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の測定原理を示す斜視図、第2
図は上記第1図の平面図、第3図a,b,cは本
発明によつて曲面特性を測定できることを示すマ
スクパターンの投影とリニアセンサの関係を示す
概略図、第4図は直交座標系と針交座標系の関係
を示す図、第5図はマスクパターンと仮想平行四
辺形の関係を示す図、第6図は本発明の第1の実
施例を示す光学配置図、第7図a,bはマスクパ
ターンの一例を示す図、第8図はリニアセンサ上
へのマスクパターンの投影とその検出状態を示す
概略図、第9図A〜Mは、リニアセンサによる検
出出力及び座標値との関係を示すタイミングチヤ
ート図、第10図はリニアセンサによる検出出力
から座標値を決定する方法を示すリニアセンサの
素子配列図、第11,12、及び13図は第1実
施例による測定を説明するための概略図、第14
図は演算回路の一例を示すブロツク図、第15図
本発明の第2の実施例を示す部分光学配置図、第
16図は第2実施例のマスク9の開口パターンの
例を示す図、第17図は第2の実施例におけるマ
スクパターンの投影とその検出を示す概略図、第
18図は本発明の第3の実施例を示す部分光学配
置図、第19図は第3実施例におけるマスクパタ
ーンの投影とその検出を示す概略図、第20図は
本発明の第4の実施例を示すリニアセンサ駆動部
を示す図、第21図は本発明の第5の実施例を示
す光学配置図、 9……開口板、10……ピンホール、14……
リレーレンズ、15,16……リニアポジシヨン
センサ、25,26……平行直線開口パタター
ン、25′,26′……投影平行直線パターン、7
3……コリメーターレンズ、125……イメージ
ロテータ、301……光束シフト手段。
Figure 1 is a perspective view showing the measurement principle of the present invention, Figure 2 is a perspective view showing the measurement principle of the present invention;
The figure is a plan view of the above-mentioned figure 1, Figures 3a, b, and c are schematic diagrams showing the relationship between the projection of the mask pattern and the linear sensor, showing that curved surface characteristics can be measured by the present invention, and Figure 4 is an orthogonal diagram. FIG. 5 is a diagram showing the relationship between the coordinate system and the needle intersection coordinate system, FIG. 5 is a diagram showing the relationship between the mask pattern and the virtual parallelogram, FIG. 6 is an optical layout diagram showing the first embodiment of the present invention, and FIG. Figures a and b are diagrams showing an example of a mask pattern, Figure 8 is a schematic diagram showing the projection of a mask pattern onto a linear sensor and its detection state, and Figures 9A to M are detection outputs and coordinates by the linear sensor. 10 is an element arrangement diagram of the linear sensor showing the method of determining coordinate values from the detection output of the linear sensor. 11, 12, and 13 are measurements according to the first embodiment. Schematic diagram for explaining the 14th
15 is a partial optical layout diagram showing a second embodiment of the present invention; FIG. 16 is a diagram showing an example of the aperture pattern of the mask 9 of the second embodiment; FIG. FIG. 17 is a schematic diagram showing the projection of a mask pattern and its detection in the second embodiment, FIG. 18 is a partial optical layout diagram showing the third embodiment of the present invention, and FIG. 19 is a schematic diagram showing the mask pattern in the third embodiment. A schematic diagram showing pattern projection and its detection, FIG. 20 is a diagram showing a linear sensor drive section showing a fourth embodiment of the present invention, and FIG. 21 is an optical layout diagram showing a fifth embodiment of the present invention. , 9...Aperture plate, 10...Pinhole, 14...
Relay lens, 15, 16...Linear position sensor, 25, 26...Parallel linear aperture pattern, 25', 26'...Projected parallel linear pattern, 7
3... Collimator lens, 125... Image rotator, 301... Luminous flux shifting means.

Claims (1)

【特許請求の範囲】 1 光源と、該光源からの光を平行光束とするコ
リメーター手段とを有する照明光学系と; 前記照明光学系からの光束で被検曲面によつて
反射された光束を選択するために実質的な面内に
少なくとも2本の平行な直線からなる少なくとも
2組の互いに配列方向の異なる平行直線群を構成
する直線パターンを有するマスク手段と、 前記マスク手段で選択された前記反射光を検出
する検出手段とを有する検出光学系と; 前記検出手段が検出した前記反射光の前記直線
パターンに対応した投影直線パターンの傾きとピ
ツチの変化から前記被検曲面の曲率半径を演算す
る演算手段とからなり; 前記マスク手段と前記検出手段のいずれもが前
記光源と光学的に非共役でかつ互いに異なる面に
それぞれ配置されている ことを特徴とする曲率測定装置。 2 前記直線パターンは、それを構成する前記直
線の太さもしくは本数又は前記反射光の選択率を
異にしてなることを特徴とする特許請求の範囲第
1項記載の曲率測定装置。 3 前記マスク手段は、少なくとも2つのマスク
手段から構成され、少なくとも1組の前記平行直
線群は1つの前記マスク手段に、他の組の前記平
行直線群は他の前記マスク手段にそれぞれ形成さ
れて成ることを特徴とする特許請求の範囲第1項
又は第2項に記載の曲率測定装置。 4 前記直線パターンは、前記反射光を選択的に
透過させるために前記マスク手段に形成された開
口により構成されていることを特徴とする特許請
求の範囲第1項ないし第3項のいずれかに記載の
曲率測定装置。 5 前記直線パターンは、その全ての直線を1枚
のマスク手段に形成してなることを特徴とする特
許請求の範囲第1項、第2項、または第4項のい
ずれかに記載の曲率測定装置。 6 前記照明光束は、赤外光であることを特徴と
する特許請求の範囲第1項ないし第5項のいずれ
かに記載の曲率測定装置。 7 前記検出手段は、平面型ポジシヨンセンサで
あることを特徴とする特許請求の範囲第1項ない
し第6項いずれかに記載の曲率測定装置。 8 前記検出手段は、前記非共役面内で実質的に
交差する少なくとも2本のリニア型ポジシヨンセ
ンサであることを特徴とする特許請求の範囲第1
項ないし第6項のいずれかに記載の曲率測定装
置。 9 前記検出手段は、前記非共役面内で実質的に
平行な少なくとも2本のリニア型ポジシヨンセン
サであることを特徴とする特許請求の範囲第1項
ないし第6項のいずれかに記載の曲率測定装置。 10 前記検出手段は、前記非共役面内で回転す
る少なくとも1本のリニア型ポジシヨンセンサで
あることを特徴とする特許請求の範囲第1項ない
し第6項のいずれかに記載の曲率測定装置。 11 前記検出手段は、少なくとも1本のリニア
型ポジシヨンセンサであり、前記被検曲面からの
前記反射光を装置光軸を回転軸として回転する光
束回転手段を有してなることを特徴とする特許請
求の範囲第1項ないし第6項いずれかに記載の曲
率測定装置。 12 前記検出手段は、前記非共役面内で平行移
動する少なくとも1本のリニア型ポジシヨンセン
サであることを特徴とする特許請求の範囲第1項
ないし第6項いずれかに記載の曲率測定装置。 13 前記検出手段は、少なくとも1本のリニア
型ポジシヨンセンサであり、前記反射光を装置光
軸と垂直な面内で平行移動させる像シフト手段を
有して成ることを特徴とする特許請求の範囲第1
項ないし第6項いずれかに記載の曲率測定装置。 14 前記検出光学系は、前記検出手段と前記マ
スク手段の少なくとも一方を前記非共役面に結像
させるリレー光学手段を有していることを特徴と
する特許請求の範囲第1項ないし第13項のいず
れかに記載の曲率測定装置。 15 前記検出光学系は、前記被検曲面と前記検
出手段との間に、前記照明光軸と垂直な反射面を
もつ反射部材を挿入可能に配して成ることを特徴
とする特許請求の範囲第1項ないし第14項のい
ずれかに記載の曲率測定装置。 16 前記リレー光学手段の光軸と、前記照明光
軸とを少なくとも一部共通して構成したことを特
徴とする特許請求の範囲第14項又は第15項記
載の曲率測定装置。
[Scope of Claims] 1. An illumination optical system having a light source and a collimator means for converting the light from the light source into a parallel light beam; a mask means having a straight line pattern forming at least two groups of parallel straight lines each having different arrangement directions in a substantial plane for selection; and a detection optical system having a detection means for detecting reflected light; calculating a radius of curvature of the curved surface to be inspected from changes in inclination and pitch of a projected linear pattern corresponding to the linear pattern of the reflected light detected by the detection means; 1. A curvature measuring device, characterized in that both the masking means and the detecting means are disposed on different planes that are optically non-conjugate with the light source. 2. The curvature measuring device according to claim 1, wherein the straight line pattern is formed by varying the thickness or number of the straight lines constituting the straight line pattern or the selectivity of the reflected light. 3. The mask means is composed of at least two mask means, and at least one set of the parallel straight line groups is formed in one of the mask means, and another set of the parallel straight line groups is formed in the other mask means. A curvature measuring device according to claim 1 or 2, characterized in that: 4. According to any one of claims 1 to 3, wherein the linear pattern is constituted by an opening formed in the mask means to selectively transmit the reflected light. Curvature measuring device as described. 5. Curvature measurement according to any one of claims 1, 2, and 4, characterized in that the straight line pattern is formed by forming all the straight lines on one mask means. Device. 6. The curvature measuring device according to any one of claims 1 to 5, wherein the illumination light beam is infrared light. 7. The curvature measuring device according to any one of claims 1 to 6, wherein the detection means is a planar position sensor. 8. Claim 1, wherein the detection means is at least two linear position sensors that substantially intersect within the non-conjugate plane.
The curvature measuring device according to any one of items 6 to 6. 9. The detection means according to any one of claims 1 to 6, wherein the detection means is at least two linear position sensors that are substantially parallel within the nonconjugate plane. Curvature measuring device. 10. The curvature measuring device according to any one of claims 1 to 6, wherein the detection means is at least one linear position sensor that rotates within the nonconjugate plane. . 11. The detection means is at least one linear position sensor, and is characterized in that it has a light flux rotation means for rotating the reflected light from the curved surface to be inspected about the optical axis of the device. A curvature measuring device according to any one of claims 1 to 6. 12. The curvature measuring device according to any one of claims 1 to 6, wherein the detection means is at least one linear position sensor that moves in parallel within the nonconjugate plane. . 13. The detection means is at least one linear position sensor, and has an image shift means for moving the reflected light in parallel within a plane perpendicular to the optical axis of the device. Range 1
The curvature measuring device according to any one of items 6 to 6. 14. Claims 1 to 13, characterized in that the detection optical system includes a relay optical means for forming an image of at least one of the detection means and the mask means on the non-conjugate surface. The curvature measuring device according to any one of. 15. The detection optical system is characterized in that a reflection member having a reflection surface perpendicular to the illumination optical axis is insertably arranged between the curved surface to be inspected and the detection means. The curvature measuring device according to any one of Items 1 to 14. 16. The curvature measuring device according to claim 14 or 15, characterized in that the optical axis of the relay optical means and the illumination optical axis are at least partially common.
JP2091829A 1990-04-06 1990-04-06 Curvature measuring device Granted JPH0315435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2091829A JPH0315435A (en) 1990-04-06 1990-04-06 Curvature measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2091829A JPH0315435A (en) 1990-04-06 1990-04-06 Curvature measuring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP56173529A Division JPS5875531A (en) 1981-10-28 1981-10-28 Apparatus for measuring curvature

Publications (2)

Publication Number Publication Date
JPH0315435A JPH0315435A (en) 1991-01-23
JPH0325165B2 true JPH0325165B2 (en) 1991-04-05

Family

ID=14037495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2091829A Granted JPH0315435A (en) 1990-04-06 1990-04-06 Curvature measuring device

Country Status (1)

Country Link
JP (1) JPH0315435A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4713862B2 (en) * 2004-08-23 2011-06-29 株式会社東芝 Ultrasonic diagnostic equipment

Also Published As

Publication number Publication date
JPH0315435A (en) 1991-01-23

Similar Documents

Publication Publication Date Title
US11629954B2 (en) Intraoral scanner with fixed focal position and/or motion tracking
JPH032531B2 (en)
KR20090091218A (en) Measurement device and measurement method
CN103649676A (en) Six degree-of-freedom laser tracker that cooperates with a remote structured-light scanner
EP0210722B1 (en) Apparatus for measuring the refractive power or radius of curvature of an optical system
JPH0514217B2 (en)
US6924897B2 (en) Point source module and methods of aligning and using the same
JPH0238212B2 (en)
JPH0325165B2 (en)
JPS63208736A (en) Optical characteristic measuring instrument for optical system
JPH0249732B2 (en)
JPH0257929B2 (en)
JPH0316132B2 (en)
JPH0314445B2 (en)
JPH0249731B2 (en)
JPS6343091B2 (en)
JPH0314444B2 (en)
JPH0222328B2 (en)
JPH08103B2 (en) Alignment device for ophthalmic machine
JPH0241328B2 (en)
JPH0225131B2 (en)
JPH05212001A (en) Measuring instrument for radius of curvature
JPH0330099B2 (en)
JPH0237534B2 (en)