JP3919069B2 - Eyeglass lens performance display method and apparatus - Google Patents
Eyeglass lens performance display method and apparatus Download PDFInfo
- Publication number
- JP3919069B2 JP3919069B2 JP2001111543A JP2001111543A JP3919069B2 JP 3919069 B2 JP3919069 B2 JP 3919069B2 JP 2001111543 A JP2001111543 A JP 2001111543A JP 2001111543 A JP2001111543 A JP 2001111543A JP 3919069 B2 JP3919069 B2 JP 3919069B2
- Authority
- JP
- Japan
- Prior art keywords
- spectacle lens
- original image
- image
- object point
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing Of Optical Devices Or Fibers (AREA)
- Eyeglasses (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、眼鏡レンズの性能を直接的に評価可能な形態で表示する眼鏡レンズ性能表示方法及び装置に関する。
【0002】
【従来の技術】
眼鏡レンズ性能表示方法としては、レンズ表面の平均度数と非点収差を求め、その分布をレンズ表面上の等高線で表す方法等が知られている。
【0003】
【発明が解決しようとする課題】
しかしながら、レンズ表面の平均度数とレンズ表面の非点収差は、通常レンズ表面の曲面性能だけをあらわすだけもので、レンズを通して外界を観察するときの性能を直接あらわすことはできない。眼鏡装用者の視力でレンズを通して外界を観察するときの性能を考慮にいれた方法として、本発明者らは、眼鏡レンズを通して外界を観察したときの見え方をシミュレーションする眼光学系のシミュレーション方法を提案している。この方法は、眼鏡レンズを通して眼によって知覚される像として、眼の網膜面に投影される光学像ではなく、視野内の全ての物体点に対して眼球を回旋させ、中心窩で捕らえた像を繋ぎ合わせた像として定義される回旋網膜像を作成して用いる方法である。
【0004】
回旋網膜像及びその動画像は、眼鏡レンズを通して外界を見るときに感じるゆれ歪み、ボケをあらわすことができる。しかしながら、回旋網膜像は、画像内の各物体点を見るときのレンズ結像性能を画像に反映した結果であって、結像性能そのものを直接あらわしたものではない。例えば、画像の輝度変化が少ない部分では、PSFが異なっても回旋網膜像が同様の結果になることもある。そして、画素数の少ない原画像の場合では、広がり範囲の小さいPSFを完全に反映することができない。
本発明は、眼鏡レンズを通して外界を観察するときの性能を直接表わすことができる眼鏡レンズの性能表示方法及び装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上述の課題を解決するための手段として、第1の手段は、
眼鏡レンズを通して外界を観察したときの視野内のすべての物体点に対する眼鏡レンズの性能を表わす性能指数を定義して求め、この性能指数の大小を視覚的に把握可能な表示形態で表示することを特徴とする眼鏡レンズ性能表示方法である。
第2の手段は、
眼鏡レンズを通して外界を観察したときの視野内のすべての物体点に対する眼鏡レンズの性能を表わす性能指数を定義して求め、物体点の前記視野の原画像または前記眼鏡レンズを通した視野の画像である歪み原画像の対応画素に、前記性能指数の値に応じて決める濃淡値またはRGB三原色輝度値を付与し、性能指数分布画像を作成して表示することを特徴とする眼鏡レンズ性能表示方法である。
第3の手段は、
前記性能指数分布画像を作成する工程は、
特定の回旋中心点を持つ眼に入る特定視野範囲の画像を原画像として作成し、各画素の代表する物体点から前記回旋中心点までの距離を取得する原画像作成工程と、
前記眼鏡レンズを通して見た場合の視野の歪みを、光線追跡法を用いて求め、その歪みを含めた画像である歪み原画像を作成するとともに、前記原画像または歪み原画像の各画素の代表する物体点から出射する光線の眼鏡レンズ通過位置を取得する歪み原画像作成工程と、
前記歪み原画像作成工程で得られた物体点光線眼鏡レンズ通過位置データを用い、眼鏡フレームの前記原画像または前記歪み原画像上の位置を表す眼鏡フレームマーク画像を作成する眼鏡フレーム位置取得工程と、
前記眼鏡レンズ及び眼球モデルよりなる光学系において、前記原画像または前記歪み原画像の各画素の代表する物体点に対する性能指数を取得する性能指数取得工程と、
前記性能指数取得工程で得られた性能指数の値に応じて決めた濃淡値またはRGB三原色輝度値を、前記原画像または前記歪み原画像の対応画素に付与して性能指数分布画像を作成するとともに、前記眼鏡フレーム位置取得工程で作成された眼鏡フレームマーク画像と合成する画像化工程と、
を有することを特徴とする第1又は第2の手段にかかる眼鏡レンズ性能表示方法である。
第4の手段は、
前記性能指数分布画像を作成する工程は、
仮想三次元空間にコンピュータグラフィックスによる仮想物体を作成して配置し、仮想三次元空間内の特定の位置に回旋中心点を置き、前記回旋中心点を頂点とし且つ特定の中心視線方向中心軸とした特定角錐範囲である視野内にある仮想物体の画像を原画像として作成するとともに、前記原画像の各画素の代表する物体点からと前記回旋中心点までの距離である物体点距離を求める原画像作成工程と、
物体点から出射し、眼鏡レンズを通って回旋中心点に向かう光線を主光線、主光線の眼鏡レンズ後面からの出射方向を眼球回旋方向と定義したとき、眼鏡レンズ上特定位置を通過する視野の中心にある物体点からの主光線である中心主光線とその眼球回旋方向である中心眼球回旋方向を光線追跡法で求め、前記中心眼球回旋方向を中心軸とする視野である眼鏡レンズ通過後視野における前記原画像の各画素の代表する物体点の位置を各該物体点に対する眼球回旋方向として光線追跡法で求め、眼鏡レンズ通過後視野の画像、すなわち各該物体点に対する歪みを含む画像である歪み原画像を作成するとともに、各該物体点に対する主光線の眼鏡レンズ通過位置を求める歪み原画像作成工程と、
前記歪み原画像作成工程で得られた物体点光線眼鏡レンズ通過位置データを用い、眼鏡フレームの前記原画像または前記歪み原画像上の位置を表す眼鏡フレームマーク画像を作成する眼鏡フレーム位置取得工程と、
前記眼球モデルとして調節対応眼球光学系モデルを導入し、前記原画像または前記歪み原画像の各画素の代表する物体点に対し、前記原画像作成工程で得られた物体点距離と前記歪み原画像作成工程で得られた主光線眼鏡レンズ通過位置における眼鏡レンズ度数に合わせて前記眼球光学系モデルの調節状態を設定し、前記眼鏡レンズと前記物体点に対する眼球回旋方向に合わせて回旋した眼球光学系モデルとの合成光学系における眼鏡レンズ性能指数を取得する性能指数取得工程と、
前記眼鏡レンズ性能指数の値に応じて決めた濃淡値またはRGB三原色輝度値を、前記原画像または前記歪み原画像の対応画素に付与して性能指数分布画像を作成するとともに、前記フレーム位置取得工程で作成された眼鏡フレームマーク画像と合成する画像化工程と
を有することを特徴とする第2〜第3の手段のいずれかにかかる眼鏡レンズ性能表示方法である。
第5の手段は、
各物体点を見るときの平均度数過不足量を前記性能指数として定義することを特徴とする第1〜第4のいずれかの手段にかかる眼鏡レンズ性能表示方法である。
第6の手段は、
各物体点を見るときの残存乱視成分を前記性能指数として定義することを特徴とする第1〜第4のいずれかの手段にかかる眼鏡レンズ性能表示方法である。
第7の手段は、
各物体点を見るときのボケの程度を表わすボケ指数を前記性能指数として定義することを特徴とする第1〜第4のいずれかの手段にかかる眼鏡レンズ性能示方法である。
第8の手段は、
各物体点を見るときの変形の程度を表す変形指数を前記性能指数として定義することを特徴とする第1〜第4のいずれかの手段にかかる眼鏡レンズ性能表示方法である。
第9の手段は、
各物体点を中心とする微小円形を、レンズを通して見たときに見える形を楕円に近似し、その楕円の大きさや長短軸比を変形指数として定義することを特徴とする第7の手段にかかる眼鏡レンズ性能表示方法である。
第10の手段は、
各物体点を見るときの網膜上のPSF(Point spread function)をもとめ、さらにPSFの広がる範囲表わす近似楕円を求め、前記近似楕円の外接長方形対角線長の半分をボケ指数として定義することを特徴とする第9の手段にかかる眼鏡レンズ性能表示方法である。
第11の手段は、
眼鏡レンズを通して外界を観察したときの眼鏡レンズの性能を表示する方法であって、
仮想三次元空間内にコンピュータグラフィックスによる仮想物体を作成して配置し、前記眼の位置、中心視線方向及びレンズ系通過点、仮想物体変形量、仮想物体移動量の時系列変化のストーリーを作成し、そのストーリーにしたがって各時点において第1〜第4のいずれかの手段にかかる眼鏡レンズ性能表示方法を用いて眼鏡レンズ性能指数分布画像を作成し、該各眼鏡レンズ性能指数分布画像を編集して眼鏡レンズ性能指数分布画像の動画像を作成し表示することを特徴とする眼鏡レンズ性能表示方法である。
第12の手段は、
眼鏡レンズを通して外界を観察したときの眼鏡レンズの性能を表示する装置であって、
仮想三次元空間内にコンピュータグラフィックスによる仮想物体を作成して配置し、この仮想物体が、特定の位置に回旋中心点を置き且つ特定の中心視線方向を持つ眼に入る特定視野角の画像を原画像として作成するとともに、前記原画像の各画素の代表する物体点位置と眼の回旋中心点との距離である物体点距離を求める原画像作成手段と、
物体点から出射し、眼鏡レンズを通って回旋中心点に向かう光線を主光線、主光線の眼鏡レンズ後面からの出射方向を眼球回旋方向と定義したとき、眼鏡レンズ上特定位置を通過する視野の中心にある物体点からの主光線である中心主光線とその眼球回旋方向である中心眼球回旋方向を光線追跡法で求め、前記中心眼球回旋方向を中心軸とする視野である眼鏡レンズ通過後視野における前記原画像の各画素の代表する物体点の位置を各該物体点に対する眼球回旋方向として光線追跡法で求め、眼鏡レンズ通過後視野の画像、すなわち各該物体点に対する歪みを含む画像である歪み原画像を作成するとともに、各該物体点に対する主光線の眼鏡レンズ通過位置を求める歪み原画像作成手段と、
前記歪み原画像作成工程で得られた物体点光線眼鏡レンズ通過位置データを用い、眼鏡フレームの前記原画像または前記歪み原画像上の位置を表す眼鏡フレームマーク画像を作成する眼鏡フレーム位置取得手段と、
前記眼球モデルとして調節対応眼球光学系モデルを導入し、前記原画像または前記歪み原画像の各画素の代表する物体点に対し、前記原画像作成工程で得られた物体点距離と前記歪み原画像作成工程で得られた主光線眼鏡レンズ通過位置における眼鏡レンズ度数に合わせて前記眼球光学系モデルの調節状態を設定し、前記眼鏡レンズと前記物体点に対する眼球回旋方向に合わせて回旋した眼球光学系モデルとの合成光学系における眼鏡レンズ性能指数を取得する性能指数取得手段と、
前記眼鏡レンズ性能指数の値に応じて決めた濃淡値またはRGB三原色輝度値を、前記原画像または前記歪み原画像の対応画素に付与して性能指数分布画像を作成するとともに、前記フレーム位置取得工程で作成された眼鏡フレームマーク画像と合成する画像化手段と
を有することを特徴とする眼鏡レンズ性能表示装置である。
第13の手段は、
眼鏡レンズを通して外界を観察したときの眼鏡レンズの性能を表示する装置であって、
仮想三次元空間内にコンピュータグラフィックスによる仮想物体を作成して配置し、前記眼の位置、中心視線方向及びレンズ系通過点、仮想物体変形量、仮想物体移動量の時系列変化のストーリーを作成し、そのストーリーにしたがって各時点で第12の手段にかかる眼鏡レンズ性能表示装置を用いて眼鏡レンズ性能指数分布画像を作成し、該各眼鏡レンズ性能指数分布画像を編集して眼鏡レンズ性能指数分布画像の動画像を作成して表示する手段を有することを特徴とする眼鏡レンズ性能表示装置である。
【0006】
【発明の実施形態】
(実施例1)
図1は本発明の実施例1にかかる眼鏡レンズ性能指数分布画像作成の流れを示す図、図2は平均度数過不足量、非点収差の分布画像作成の流れを示す図、図3はボケ指数の分布画像作成の流れを示す図、図4は変形指数分布像作成の流れを示す図、図5は物体点を中心とする微小円形の主光線を追跡する場合の説明図、図6は裸眼視野の座標系を示す図、図7は眼鏡レンズを通して見る視野の座標系を示す図、図8はNavarro模型眼の光学パラメータ(非調節状態)を示す図、図9はNavarro模型眼の光学パラメータの調節パワー依存式を示す図、図10はPSFの説明図、図11は物体点を見るときの眼鏡眼球光学系を示す図、図12は入射瞳の分割法を示す図である。図13は原画像である。図14は図13の原画像の示す視野を観察するときの歪み原画像をベースにしたボケ指数分布図の一例である。以下、これらの図面を参照にしながら本発明の実施例1にかかる眼鏡レンズ性能表示方法を説明する。
【0007】
この実施例にかかる眼鏡レンズ性能指数表示方法は、コンピュータグラフィックスによって作成した三次元物体を、レンズを通して見たときの眼鏡レンズ性能指数の分布を静止画像として作成し表示する方法である。実施例1にかかる眼鏡レンズ性能指数の分布の作成は、大きく分けて、(1)原画像作成工程、(2)歪み原画像作成工程、(3)眼鏡フレーム位置取得工程、(4)性能指数取得工程、(5)画像化工程、とからなる。
【0008】
(1)原画像作成工程
この工程は、仮想三次元空間内にコンピュータグラフィックスによる仮想物体を作成して配置し、この仮想物体が、特定の位置に回旋中心点を置き且つ特定の中心視線方向を持つ眼に入る特定視野角の画像を原画像として作成するとともに、前記原画像の各画素の代表する物体点位置と眼の回旋中心点との距離である物体点距離を求める工程である。以下説明する。
【0009】
▲1▼ 原画像の基礎となる仮想物体の作成
まず、周知のコンピュータグラフィックスの手法によって、仮想三次元空間に仮想三次元物体を作成して配置する。例えば、室内に机、椅子、家具等を配置し、あるいは、野外に花壇、樹木、標識等を配置した像を作成する。
【0010】
原画像の作成上記作成した仮想物体が、特定の位置に回旋中心点を置き、回旋中心点を頂点とし且つ特定の中心視線方向を中心軸とした特定角錐範囲である視野内にある仮想物体の画像を原画像として作成する。すなわち、図6に示されるように、回旋中心点Oを頂点とし且つ中心視線方向OAを中心軸とした四角錐A1A2A3A4を視野と設定し、その範囲の画像を作成する。Oを原点としAOをx軸とした座標系における視野四角錐内の任意の物体点P(x,y,z)の原画像座標はU=tanβ=y/x,V=tanγ=z/xとする。ここで、βとγとはP(x,y,z)の方位角である。視野内の各物体点をこのように画像に投影すると空間上任意の直線が画像上直線として映るので、歪みのない投影になる。この投影法で各物体点を表した画像を原画像とする。
【0011】
▲3▼ 物体点距離の取得
また、原画像作成工程ではP(x,y,z)の座標値から回旋中心点までの距離をも求める。
【0012】
(2)歪み原画像作成工程
この工程は、眼鏡レンズによる歪みを含めた画像を作成するとともに、各物体点の主光線のレンズ通過位置を求める。ここで、物体点から出射し、眼鏡レンズを通って回旋中心点に向かう光線を主光線と定義する。この主光線の眼鏡レンズ後面からの出射方向は、物体点を見るために眼球が向く方向なので、眼球回旋方向と定義する。特に視野中心にある物体点からの主光線を中心主光線、またその眼球回旋方向を中心眼球回旋方向と定義する。
【0013】
歪み原画像は、中心眼球回旋方向を中心軸とする視野である眼鏡レンズ通過後視野における原画像の各画素の代表する物体点の位置を表わす画像である。中心主光線と中心眼球回旋方向はあらかじめ設定した眼鏡レンズ通過位置を通過するように光線追跡法を用いて求めることができる。各物体点の眼鏡レンズ通過後視野における位置は、その眼球回旋方向の中心眼球回旋方向からの相対位置で表わすことができる。各物体点に対する主光線とその眼鏡レンズ通過位置および眼球回旋方向は光線追跡法で求めることができる。
【0014】
すなわち、図7に示されるように、図6における眼球回旋中心点Oと視野中心物体点Aの間に眼鏡レンズLを配置すると、Aを見るためには、眼球がOA方向ではなくレンズ通過点Bの方向に向ける必要がある。光線ABOは中心主光線であり、BO方向がレンズ通過後視野の中心軸となる。レンズ通過後視野の画像における任意物体点の位置は下記のように求める。
【0015】
まずOを原点とし、BO方向をx’軸とするx’y’z’座標系を設定する。任意の物体点P(x,y,z)に対する主光線PQOを光線追跡法で求める。レンズ通過位置をQ(x’,y’,z’)とし、 x’y’z’座標系においての方位角をβ’とγ’とすれば、眼鏡レンズ通過後視野の画像における座標は、U’=tanβ’=y’/x’,V’=tanγ’=z’/x’となる。視野内の各物体点をこのようにレンズ通過後視野の画像に投影すると、一般に空間上の直線が画像上直線として映らないので、レンズによる歪みを含む画像になる。このように作成した眼鏡レンズ通過後視野の画像を歪み原画像という。また、歪み原画像作成工程では各物体点の主光線レンズ通過位置をも求める。
【0016】
(3)眼鏡フレーム位置取得工程
この工程は、歪み原画像作成工程で求められた眼鏡レンズ通過位置の情報を用い、眼鏡フレームの縁、隠しマークなどの原画像または歪み原画像上における位置を求め、眼鏡フレームマーク画像を作成する工程である。眼鏡フレームマーク画像と原画像または歪み原画像と対比することにより、画像上の物体がレンズのどの位置を通して見ているかを正確に把握することができる。
【0017】
(4)性能指数取得工程
この工程は、眼の光学系として調節対応眼球モデルを導入し、原画像の各画素に対し、原画像作成工程で得られた物体点距離と、歪み原画像作成工程で得られた物体点から出射する主光線の眼鏡レンズ通過点における度数に合わせて眼球モデルの調節状態を設定し、眼鏡レンズとその主光線方向に合わせて回旋した眼球モデルとの合成光学系において、物体点の結像性能指数を求める工程である。
【0018】
結像性能指数としては、平均度数過不足量、残存乱視成分量、変形の程度を表す変形指数、ボケの大きさを示すボケ指数などがある。また、ボケ指数の一例としては、PSF(Point spread function)の広がる範囲を楕円に近似させた場合、楕円の外接長方形の半対角線長などがある。
【0019】
(1)平均度数過不足量、残存乱視成分量取得工程
図11に示すように、任意物体点Pから発射される光線がレンズ第1面Q点で屈折され、回旋中心点Oに向かう。P点を見るときのレンズ屈折効果は、P点を中心とする球面波(無限遠方物体点の場合は平面波)が光線に沿って伝播し、光線と後方頂点球面(回旋中心点Oを中心とし、レンズ後方頂点Cを通過する球面)の交点Rに到達した時の波面の形状によって表わすことができる。点Rを原点、RO方向をx軸としたローカル座標系において、点R近傍の波面形状は、一般的に式
xD=(1/2)Dyyy2+Dyzyz+(1/2)Dzzz2 で表わすことができる。Dyy、DyzおよびDzzは光線追跡法を用いて求めることができる。
【0020】
さらにx軸を固定し、y−z軸をある角度回転させると、
の式になる。上記式の右辺第1項は、球面波成分、第2項は乱視波成分である。ここでDmaxは最大曲率、Dminは最小曲率で、
である。
【0021】
また、平均曲率は、
Dave=(1/2)(Dmax+Dmin)= (1/2)(Dyy+Dzz)
であり、乱視成分は、
Das=DmaxーDmin=2{(1/4)(Dyy−Dzz)2+Dyz 2}1/2
と定義する。
【0022】
一方、乱視を持つ目の屈折状態は、同様に点Rにおける矯正波面形状で表わすことができる。仮に乱視度数と方向を含めた遠用矯正波面を
xc=(1/2)Cyyy2+Cyzyz+(1/2)Czzz2
で表わすと、目の遠用平均度数は、
Cave=(1/2)(Cyy+Czz)
乱視成分は、
Cas=2{(1/4)(Cyy−Czz)2+Cyz 2}1/2
となる。
【0023】
同様に目の調節パワーの波面を定義できる。調節により乱視の度数や方向が変わることも考えられるが、ここでは調節による乱視変化のないケースについて説明する。目の調節パワーの波面は、
xA=(1/2)A(y2+z2)
と表せる。ここで、Aは調節パワーである。
【0024】
さて、物体点Pを見る場合の眼鏡レンズ矯正効果波面は、
x=xC−xA−xD
で表わすことができる。上記各式を代入し整理し、座標回転を行い、球面波成分と乱視波成分とにまとめると、
x=(1/2)ΔD(y''2+z''2)+(1/4)ΔDas(y''2−z''2)
となる。ここで、
ΔD=Cave+A−Dave
ΔDas=2[(1/4){(Cyy−Dyy)−(Czz−Dzz)}2
+(Cyz−Dyz)2]1/2
である。ΔDは平均度数過不足量、ΔDasは残存乱視成分量と定義する。また、調節パワーAは0から最大調節パワーAmaxの間の、ΔDの絶対値が最小になる値をとる。ΔDが正のときは度数不足といい、負のときは度数過剰という。
【0025】
▲2▼変形指数取得工程
この工程は、眼鏡レンズ上の任意の点を通して空間上の任意の物体点を見るときに感ずる変形の程度を表す変形指数を求める工程である。ここで、物体点の変形の意味は、物体点を中心とする微小円形が、レンズを通して見るとどのような形状に見えるか、ということであるということができる。ほとんどの場合、その形状は楕円と見做すことができるので、楕円パラメータで変形指数を定義することができる。
【0026】
変形楕円は、物体点主光線の近傍の主光線を追跡することによって得られる。図5は物体点を中心とする微小円形の主光線を追跡する場合の説明図である。図5に示されるように、物体点Pを中心とし、半径drの円周上すべての物体点(dr,θ)の主光線を追跡すると、レンズ通過後の位置(dr’,θ’)が得られ、その軌跡、つまり、変形楕円が求められる。drは空間上の長さではなく、OPからの偏角のタンジェントである。
【0027】
実際は、円周上の全ての点に対して主光線を追跡するのではなく、物体側偏角に対する像側偏角の偏導関数値∂μ’/∂u,∂μ’/∂ν,∂ν’/∂u,∂ν’/∂ν、又は、逆に、像側偏角似対する物体側偏角の偏導関数値∂μ/∂u’,∂μ/∂ν’,∂ν/∂u’,∂ν/∂ν’を求めれば、変形楕円が得られる。後者を例にし、偏導関数値∂μ/∂u’=A,∂μ/∂ν’=B,∂ν/∂u’=C,∂ν/∂ν’=Dと書き換えて説明すると、以下のとおりである。
【0028】
すなわち、
である。
【0029】
つまり、
(dr’/dr)2=p/{1+ecos2(θ’−α)}
である。ここで、
である。
【0030】
このように、p>0,0≦e≦1なので、拡大率dr’/drが方位角θ’によって変わる関数は楕円関数である(図5参照)。この楕円を変形楕円と呼ぶ。最大、最小拡大率、つまり、変形楕円の長軸と短軸との長さは、それぞれ、a={p/(1−e)}1/2,b={p/(1+e)}1/2となる。本発明では、スケールファクターの(ab)1/2と、長短軸比のa/bと、これら両者を組み合わせた量を変形の程度(=度合)を表す変形指数と定義する。ここで、
である。
【0031】
変形指数取得工程では、原画像または歪原画像の各画素の代表する物体点に対し、上記方法を用いて変形指数を求める工程である。上記方法では、画像全ての物体点に対して変形指数の計算を行なう必要があるが、スプライン補間法という数学手法を用いれば、一定の誤差範囲内において少ない計算量で変形指数を求めることが可能である。変形指数分布像の作成は図4に示される流れにしたがって行なわれる。∂μ/∂u’,∂μ/∂ν’,∂ν/∂u’,∂ν/∂ν’を求めるには、光線追跡法のほかに、あらかじめ計算しておいた主光線データのスプライン補間式の微分計算で求める方法もある。
【0032】
平均度数過不足量、残存乱視成分量工程では、原画像または歪み原画像の各画素の代表する物体点に対し、上記方法を用いて平均度数過不足量と残存乱視成分量を求める工程である。上記の方法では、画像上全ての物体点に対して平均度数過不足量、残存乱視成分量、残存乱視成分量の計算を行う必要があるが、スプライン補間法という数学手法を用いれば、一定の誤差範囲内において少ない計算量で、平均度数過不足量、残存乱視成分量、残存乱視成分量を求めることが可能である。平均度数過不足量、残存乱視成分量分布像の作成は図2に示されるながれによって行う。
【0033】
▲3▼ PSF取得工程
この工程は、眼の光学系として調節対応眼球モデルを導入し、原画像作成工程で得られた物体点距離と、歪み原画像作成工程で得られた眼鏡レンズ通過点における度数に合わせて眼球モデルの調節状態を設定し、眼鏡レンズと主光線方向に合わせて回旋した眼球モデルとの合成光学系において、物体点から出射する光線による調節対応眼球モデルの網膜上の輝度分布を表すPSF(Point spread function: 点広がり関数)を求める工程である。
【0034】
(ア) 調節対応眼球モデルの導入
網膜上のPSFを求めるためには、眼球光学系の導入が必要である。この場合、眼には物体距離に合わせて調節作用があるので、それも考慮しなければならない。この実施例では、調節作用も考慮した眼球光学系モデルであるR.Navarroらによる調節依存性眼球モデルを用いた。Navarroのモデルでは近軸値のみならず、球面収差と色収差も眼の実測値に合わせるようになっている。簡単な4面構成で、そのうち3面は軸対称二次曲面の非球面である。水晶体は屈折率分布構造になっておらず、追跡計算が簡単である。曲率半径、厚み、非球面度は調節パワーの対数に比例して変化する。図8にNavarroらによる眼球モデルの無調節時の光学パラメータを示した。また、図9に調節依存するパラメータの依存式を示した。非球面は、y2+z2+(1+Q)x2−2Rx=0で表される。Qは非球面度である。
【0035】
(イ) PSFの計算
A) PSFの意味
PSFは、図10に示したように、実物体の一点から放射された光線が結像面に集光される点(スポット)の集合状態を表す関数であり、単位面積あたりのスポット数で表わすことができる。完全な光学系であればPSFは結像点にすべてのスポットが集まり、その分布は垂直な直線となるが、通常は広がったガウス分布に類似した形状となる。
【0036】
B) PSFの取得方法
図11は物体点Pを、レンズ上のQ点を通して見た場合のPSFを求めるための光学系において追跡光線と入射瞳の関係を示す図である。物体点Pからの光線は、レンズ表面Q点で屈折され、射出方向は変化し、回旋点Oに到達する。眼には物体点Pが射出光線方向QOの延長線上にあるように見える。このように、Pを見るときはまず眼球の光軸をQO方向に回旋し、そしてPの距離およびQ点の屈折力に合わせて調節度を決め、調節を行う。この時点で光学系が固まり、PSFを求めることができる。
【0037】
上述のように、PSFは物体点から放射され、入射瞳を均等に分割した多数の領域の中心を通過した光線の、結像面上のスポットの密度である。入射瞳の位置は、厳密にいうと瞳孔の物体側共役点である。しかし、瞳孔位置は回旋によって変化し、調節状態によってもその共役点の位置が異なる。一方、回旋中心の位置は固定であるうえ、瞳孔の共役点との距離が物体距離に比べて微小である。したがって、裸眼の場合入射瞳の位置は回旋中心と考えても差し支えない。眼鏡を装用したとき、光学系全体の入射瞳は回旋中心点の眼鏡レンズに対する共役点だが、累進レンズの場合通過点によってパワーが異なり、その位置が微妙に変化する。その変化量も物体距離に比較して微小であるので、入射瞳の位置はPQの延長線上のO’点にあり、PO=PO’と仮定することができる。
【0038】
正確なPSFを求めるには、入射瞳を均一分布の多数の小領域に分割することが重要である。図12のように、格子分割と螺線分割の二種類の分割法がある。格子分割は良い均等性が得られるが、四隅の無駄な部分があるため、予定光線の70%程度しか追跡できない。一方螺線分割では均等性を保ちながら無駄な光線追跡が生じない。この実施例では螺線分割法を採用した。
【0039】
このように、PSFは物体点から発射して入射瞳の均等分割点を通過する多数の光線を追跡し、網膜面上のスポットの密度を計算することで得られる。上記PSF取得方法は、すべての物体点と入射瞳分割点の組み合わせに対して光線追跡計算をする必要があるが、スプライン補間法という数学的手法を用いれば、一定の誤差範囲内において少ない計算量で網膜面上のスポット位置を求め、さらに網膜面上のスポットの密度であるPSFを取得することが可能である。
【0040】
以上の方法で求めたPSFは歪み原画像との畳み込み演算により、眼鏡レンズをかけて外界を見るときのボケを正確に反映することができる。しかし、このままの形のPSFでは、計算時間が長く、レンズの結像性能の定量分析などに用いるには不便である。PSFをある種の関数に近似させ、その関数のパラメータを用いれば、定量分析が容易に行える。以下PSFを二次元正規分布関数に近似させる方法を述べる。
【0041】
【数1】
ここで、μ,νはそれぞれ網膜上縦、横方向の偏移量、σμ,σν,ρは正規分布のパラメータである。これらのパラメータは下記の性質を持っている。
−1<ρ<1
σμ>0
σν>0
上式の指数部が−1/2となる点の軌跡は、
(μ2/σμ 2)+(ν2/σν 2)−(2ρμν/σμσν)=1−ρ2
で表わされる楕円で、PSFの広がる範囲を表わすことができる、楕円の長短軸の長さ比や、長軸の方向などは、非点収差の大きさと方向に密接に関係する。
【0042】
二次元正規分布関数のパラメータσμ,σν,ρを、光線データから求める方法を考えると、(μ,ν)平面に散布する多数の光線の交点(各交点が入射瞳上の各分割点に対応)の統計値を求めて、σμ,σν,ρにあてる方法を自然に浮かぶ。つまり、
【数2】
である。ここで、Nは光線数で、(μi,νi)は交点座標である。
σμ 0、σν 0、ρをそのまま近似正規分布のパラメータとすると、分布状況によっては、実際のPSFと乖離してしまうことも考えられる。その場合は適切な比例常数kを定め、σμ=kσν 0、σν=σν 0でパラメータを調整する必要がある。
このように、網膜上光線スポットの統計量を用いて、PSFの近似関数となる二次元正規分布関数のパラメータを取得することができる。上記の方法でPSFを二次元正規分布関数に近似させてそのパラメータを求める方法を採用する場合、すべての物体点に対して光線追跡及び統計計算を行う必要があるが、スプライン補間法という数学的手法を用いれば、一定の誤差範囲内において少ない計算量で二次元正規分布関数のパラメータを取得することが可能である。
【0043】
(ウ) PSFよりボケ指数の算出
ボケ指数は、ボケを表わすPSF(Point Spread Function)の広がる範囲の大きさを表わすもので、小さいほど画質がよく、はっきり見えるという意味である。2次元正規分布関数で近似されるPSFは、その広がり範囲が楕円で表わすことができるので、楕円の大きさを表わす数値をボケ指数として定義できる。また、ボケ指数の定義は、無謬性と定常性が要求される。無謬性というのは、矛盾が起こらないことである。たとえば、楕円の面積をボケ指数と定義する場合、楕円が線分に退化した場合、ボケ指数がゼロとなる。したがってこの場合では、いくら非点収差が大きくても画質がいいことになるという矛盾が起こり、楕円の面積をボケ指数として定義することは適切ではない。定常性とは、楕円の大きさと形が変わらなければ、楕円が回転してもボケ指数が変わらないことである。この実施例では、無謬性と定常性をもつ外接矩形の対角線長の半分をボケ指数として定義する。つまり、P=(σμ 2+σν 2)1/2である。ボケ指数分布像作成は図3に示すながれによって行う。
【0044】
(5)画像化工程
この工程は、性能指数取得工程で求められた各画素の代表する物体点に対する結像性能指数を画像の濃淡値、またはRGB輝度値に変換し、原画像、または歪み原画像上の位置に表示した場合の像を作成し、フレーム位置取得工程で作成したレンズフレームマーク画像とを合成して性能指数分布画像を作成する工程である。
【0045】
図13は実施例1の原画像を示す図である。卓上に印刷物が置かれ、約80cm前方液晶ディスプレイが置かれている。さらに前方2.5mには壁がある。この視野を右目遠用0.00D加入2.50Dの眼鏡用累進レンズ(HOYALUX SUMMIT;ホーヤ株式会社の商品名)を通して見た場合のボケ指数分布像の静止画像が図14である。視野は左右102.5°、上下86.2°である。眼鏡フレームは天地サイズ40mm、幅50mmのものであり。フレーム上データムラインおよび遠用度数、近用度数測定リングが表示されている。黒側がボケが少ないことを意味し、白側がボケが大きいことを意味する。
【0046】
図14の例において、ボケ指数から画像濃淡値への変換は、ボケ指数をP(単位mm)とした場合、画像濃淡値Nは、N=3.767×103Pで計算された整数で、256を超えた場合は255の値を付与する。また、表示方法としては、ボケ指数を濃淡値で表すかわりにRGB三原色輝度値で表すこともできる。RGB三原色輝度値で表す場合においては、上記画像濃淡値Nから以下の式によってRGB三原色輝度値に変換することができる。
【数3】
【0047】
上述のボケ指数分布像は眼鏡レンズの結像性能を如実に再現されていることがわかる。この実施例によれば、眼鏡レンズ通して見たときのレンズの結像性能をレンズ使用状態で見る画像に合わせて表示する事ができ、使用状態のレンズ性能評価が可能になる。
【0048】
(実施例2)
この実施例は、実施例1における性能指数分布画像の静止画像を、眼の位置と視線方向を変えながら時系列に多数作成し、動画像を得る例である。したがって、この実施例は、原画像を作成する際に、眼の位置、視線方向、仮想物体の移動や変形を時系列にどのように変えるかのストーリーを作成する工程と、時系列に得られた1枚1枚の静止画像を編集して動画像にする工程とを付加する外は基本的に実施例1と同じであるので、図15に全体の流れを示す図を掲げてその詳細説明は省略する。なお、ストーリーには、レンズ通過点のストーリーも必要であることは勿論である。また、ストーリー作成の方法としては、全ての時刻での眼の位置、視線方向及びレンズ通過点を定めるのではなく、スプライン補間法をとれば、滑らかな視線移動が実現される。
【0049】
上述の実施例2によれば、累進レンズを通して外界を見るとき性能の、眼の位置を変えたり、視線を移動したり、視線のレンズ上通過位置を変えたりした場合の変化を再現する動画像が得られる。したがって、眼球レンズの結像性能を実際の使用状況に極めて近い形で評価することが可能になる。さらに、この動画像の表示画面にレンズフレームマークを表示するようにすれば、視線のレンズ上での移動を確認しながらの評価が可能になる。
【0050】
次に上述の実施例で示した方法を実施するための装置について簡単に説明する。図16は実施例の方法を実施するための装置の概略構成を示すブロック図である。図16に示したように、この装置は、プロセッサ61、読取専用メモり(ROM)62、メインメモリ63、グラフィック制御回路64、表示装置65、マウス66、キーボード67、ハードディスク装置(HDD)68、外部記憶装置(FDD)69、プリンタ70、磁気テープ装置71等から構成されている。これらの要素は、データバス72によって結合されている。
【0051】
プロセッサ61は、装置全体を統括的に制御する。読取専用メモリ62には立ち上げ時に必要なプログラムが格納される。メインメモリ63には性能指数分布画像作成、表示を行うためのプログラムが格納される。グラフィック制御回路64はビデオメモリを含み、得られた画像データを表示信号に変換して表示装置65に表示する。マウス66は表示装置上の各種のアイコン、メニュー等を選択するポインティングデバイスである。ハードディスク装置68はシステムプログラム、性能指数分布画像作成、表示プログラム等が格納され、電源投入後にメインメモリ63にローディングされる。また、性能指数分布画像等のデータを一時的に格納する。
【0052】
外部記憶装置69は原画像データ等の必要なデータを、外部記憶メディア69aを通じて入力したり、必要に応じて外部記憶メディア69aにセービングしたりする。プリンタ装置70は性能指数分布画像等をプリントアウトするのに用いられる。磁気テープ装置71は必要に応じてプログラムやデータを磁気テープにセービングするのに使用する。なお、以上のべた基本構成を有する装置としては、高性能のパーソナルコンピュータや一般の汎用コンピュータを用いて構成することができる。
【0053】
【発明の効果】
以上詳述したように、本発明にかかる眼鏡レンズの性能表示方法および装置は、眼鏡レンズを通して外界を観察したときの視野内のすべての物体点に対する眼鏡レンズの性能を表わす性能指数を定義して求め、この性能指数の大小を視覚的に把握可能な表示形態で表示することを特徴とするもので、これにより、眼鏡レンズを装用した場合の性能を実際の使用状況に極めて近い形で視覚的に評価することを可能にしている。
【図面の簡単な説明】
【図1】 性能指数分布画像作成の流れを示す図である。
【図2】 平均度数過不足、非点収差分布像作成の流れを示す図である。
【図3】 ボケ指数分布像作成の流れを示す図である。
【図4】 変形指数分布像作成の流れを示す図である。
【図5】 物体点を中心とする微小円形の主光線を追跡する場合の説明図である。
【図6】 裸眼視野の座標系を示す図である。
【図7】 眼鏡レンズを通して見る視野の座標系を示す図である。
【図8】 Navarro模型眼の光学パラメータ(非調節状態)の説明図である。
【図9】 Navarro模型眼の光学パラメータの調節パワー依存式を示す図である。
【図10】 PSFの説明図である。
【図11】 物体点を見るときの眼鏡光学系を示す図である。
【図12】 入射瞳分割法の説明図である。
【図13】 実施例1の原画像を示す図である。
【図14】 実施例1のボケ指数分布像を示す図である。
【図15】 性能指数分布画像の動画像作成の流れを示す図である。
【図16】 本発明にかかる眼鏡レンズ性能表示方法を実施するための装置の構成を示すブロック図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a spectacle lens performance display method and apparatus for displaying spectacle lens performance in a form that can be directly evaluated.
[0002]
[Prior art]
As a spectacle lens performance display method, a method of obtaining an average power and astigmatism on the lens surface and expressing the distribution with contour lines on the lens surface is known.
[0003]
[Problems to be solved by the invention]
However, the average power of the lens surface and the astigmatism of the lens surface usually represent only the curved surface performance of the lens surface, and cannot directly represent the performance when observing the outside world through the lens. As a method that takes into account the performance when observing the outside through a lens with the eyesight of a spectacle wearer, the present inventors have developed a simulation method for an eye optical system that simulates the appearance when observing the outside through a spectacle lens. is suggesting. This method is not an optical image projected on the retinal surface of the eye as an image perceived by the eye through a spectacle lens, but an image captured by the fovea by rotating the eyeball with respect to all object points in the field of view. This is a method of creating and using a convoluted retinal image defined as a connected image.
[0004]
The rotated retinal image and its moving image can show the distortion and blur that are felt when looking at the outside through a spectacle lens. However, the rotated retinal image is a result of reflecting the lens imaging performance when viewing each object point in the image, and does not directly represent the imaging performance itself. For example, in a portion where the luminance change of the image is small, the rotated retinal image may have the same result even if the PSF is different. In the case of an original image with a small number of pixels, a PSF having a small spread range cannot be completely reflected.
SUMMARY OF THE INVENTION An object of the present invention is to provide a spectacle lens performance display method and apparatus capable of directly expressing the performance when observing the outside world through a spectacle lens.
[0005]
[Means for Solving the Problems]
As means for solving the above-mentioned problem, the first means is:
Defining a figure of merit that represents the performance of the spectacle lens for all object points in the field of view when the outside world is observed through the spectacle lens, and displaying the magnitude of this figure of merit in a display format that can be visually grasped. This is a characteristic spectacle lens performance display method.
The second means is
By defining a figure of merit that represents the performance of the spectacle lens for all object points in the field of view when the external world is observed through the spectacle lens, the original image of the field of view of the object point or the image of the field of view through the spectacle lens In a spectacle lens performance display method, a grayscale value or RGB three primary color luminance value determined according to the value of the performance index is given to a corresponding pixel of a certain distortion original image, and a performance index distribution image is created and displayed. is there.
The third means is
The step of creating the figure of merit distribution image includes
An original image creation step of creating an image of a specific visual field range entering an eye having a specific rotation center point as an original image, and obtaining a distance from the object point represented by each pixel to the rotation center point;
The distortion of the visual field when viewed through the spectacle lens is obtained using a ray tracing method, and a distortion original image that is an image including the distortion is created, and the original image or each pixel of the distortion original image is represented. A distortion original image creating step for acquiring a spectacle lens passing position of a light beam emitted from an object point;
A spectacle frame position acquisition step for creating a spectacle frame mark image representing the original image of the spectacle frame or the position on the distorted original image using the object point ray spectacle lens passage position data obtained in the distortion original image creation step; ,
In the optical system comprising the spectacle lens and the eyeball model, a performance index acquisition step of acquiring a performance index for the object point represented by each pixel of the original image or the distortion original image;
While creating a figure of merit distribution image by assigning the gray value or RGB three primary color luminance value determined according to the figure of merit obtained in the figure of merit index to the corresponding pixels of the original image or the distorted original image An imaging step of combining with the spectacle frame mark image created in the spectacle frame position acquisition step;
It is the spectacles lens performance display method concerning the 1st or 2nd means characterized by having.
The fourth means is
The step of creating the figure of merit distribution image includes
Create and place a virtual object by computer graphics in a virtual three-dimensional space, place a rotation center point at a specific position in the virtual three-dimensional space, and use the rotation center point as a vertex and a specific central line-of-sight direction central axis An image of a virtual object in the field of view of the specific pyramid range is created as an original image, and an object point distance that is a distance from the object point represented by each pixel of the original image to the rotation center point is obtained. Image creation process;
When the light beam emitted from the object point and passing through the spectacle lens toward the center of rotation is defined as the chief ray, and the exit direction of the chief ray from the rear surface of the spectacle lens is defined as the eyeball rotation direction, the field of view passing through a specific position on the spectacle lens A central principal ray that is a principal ray from an object point in the center and a central eyeball rotation direction that is the direction of eyeball rotation are obtained by a ray tracing method, and a visual field after passing through a spectacle lens that is a field of view having the center eyeball rotation direction as a central axis The position of an object point represented by each pixel of the original image in FIG. 5 is obtained by ray tracing as the eyeball rotation direction with respect to each object point, and is an image of a visual field after passing through a spectacle lens, that is, an image including distortion for each object point. A distortion original image creating step for creating a distortion original image and obtaining a principal ray passing position of a principal ray with respect to each object point;
A spectacle frame position acquisition step for creating a spectacle frame mark image representing the original image of the spectacle frame or the position on the distorted original image using the object point ray spectacle lens passage position data obtained in the distortion original image creation step; ,
An eyeball optical system model corresponding to the adjustment is introduced as the eyeball model, and the object point distance obtained in the original image creation step and the distortion original image with respect to the object point represented by each pixel of the original image or the distortion original image. An eyeball optical system in which the adjustment state of the eyeball optical system model is set in accordance with the spectacle lens power at the principal ray spectacle lens passage position obtained in the creation step, and is rotated in accordance with the eyeball rotation direction with respect to the eyeglass lens and the object point A performance index acquisition step of acquiring a spectacle lens performance index in a synthetic optical system with a model;
A gray scale value or RGB three primary color luminance value determined according to the value of the spectacle lens performance index is given to corresponding pixels of the original image or the distorted original image to create a performance index distribution image, and the frame position acquisition step An imaging process to be combined with the eyeglass frame mark image created in
The eyeglass lens performance display method according to any one of the second to third means.
The fifth means is
An eyeglass lens performance display method according to any one of the first to fourth means, wherein an average power excess / deficiency when viewing each object point is defined as the performance index.
The sixth means is
The eyeglass lens performance display method according to any one of the first to fourth means, wherein a residual astigmatism component when viewing each object point is defined as the performance index.
The seventh means is
A spectacle lens performance indicating method according to any one of the first to fourth means, wherein a blur index representing a degree of blur when viewing each object point is defined as the performance index.
The eighth means is
The eyeglass lens performance display method according to any one of the first to fourth means, wherein a deformation index representing a degree of deformation when viewing each object point is defined as the performance index.
The ninth means is
According to a seventh means, wherein a minute circle centered on each object point is approximated to an ellipse when viewed through a lens, and the size and long / short axis ratio of the ellipse are defined as a deformation index It is a spectacle lens performance display method.
The tenth means is
It is characterized in that a PSF (Point spread function) on the retina when viewing each object point is obtained, an approximate ellipse representing a range in which the PSF extends is obtained, and half of the diagonal length of the circumscribed rectangle of the approximate ellipse is defined as a blur index. This is a spectacle lens performance display method according to the ninth means.
The eleventh means is
A method for displaying the performance of an eyeglass lens when the outside world is observed through the eyeglass lens,
Create and place virtual objects using computer graphics in a virtual three-dimensional space, and create a story of time-series changes in the eye position, central line-of-sight direction, lens system passing point, virtual object deformation, and virtual object movement. According to the story, a spectacle lens performance index distribution image is created using the spectacle lens performance display method according to any one of the first to fourth means at each time point, and the spectacle lens performance index distribution image is edited. The eyeglass lens performance display method is characterized by creating and displaying a moving image of an eyeglass lens performance index distribution image.
The twelfth means is
A device for displaying the performance of a spectacle lens when the outside world is observed through the spectacle lens,
A virtual object created by computer graphics is created and arranged in a virtual three-dimensional space, and this virtual object is an image of a specific viewing angle that enters the eye with a rotation center point at a specific position and a specific central line-of-sight direction. An original image creating means for obtaining an object point distance that is a distance between an object point position represented by each pixel of the original image and a rotation center point of the eye, as an original image;
When the light beam emitted from the object point and passing through the spectacle lens toward the center of rotation is defined as the chief ray, and the exit direction of the chief ray from the rear surface of the spectacle lens is defined as the eyeball rotation direction, the field of view passing through a specific position on the spectacle lens A central principal ray that is a principal ray from an object point in the center and a central eyeball rotation direction that is the direction of eyeball rotation are obtained by a ray tracing method, and a visual field after passing through a spectacle lens that is a field of view having the center eyeball rotation direction as a central axis The position of an object point represented by each pixel of the original image in FIG. 5 is obtained by ray tracing as the eyeball rotation direction with respect to each object point, and is an image of a visual field after passing through a spectacle lens, that is, an image including distortion for each object point. A distortion original image creating means for creating a distortion original image and calculating a principal ray passing position of the principal ray with respect to each object point;
Spectacle frame position acquisition means for generating a spectacle frame mark image representing a position of the spectacle frame on the original image or the distorted original image using the object point ray spectacle lens passing position data obtained in the distortion original image generation step; ,
An eyeball optical system model corresponding to the adjustment is introduced as the eyeball model, and the object point distance obtained in the original image creation step and the distortion original image with respect to the object point represented by each pixel of the original image or the distortion original image. An eyeball optical system in which the adjustment state of the eyeball optical system model is set in accordance with the spectacle lens power at the principal ray spectacle lens passage position obtained in the creation step, and is rotated in accordance with the eyeball rotation direction with respect to the eyeglass lens and the object point A performance index acquisition means for acquiring a spectacle lens performance index in a synthetic optical system with a model;
A gray scale value or RGB three primary color luminance value determined according to the value of the spectacle lens performance index is given to corresponding pixels of the original image or the distorted original image to create a performance index distribution image, and the frame position acquisition step Imaging means for combining with the eyeglass frame mark image created in
It is a spectacles lens performance display apparatus characterized by having.
The thirteenth means is
A device for displaying the performance of a spectacle lens when the outside world is observed through the spectacle lens,
Create and place virtual objects using computer graphics in a virtual three-dimensional space, and create a story of time-series changes in the eye position, central line-of-sight direction, lens system passing point, virtual object deformation, and virtual object movement. Then, according to the story, a spectacle lens performance index distribution image is generated using the spectacle lens performance display device according to the twelfth means at each time point, and the spectacle lens performance index distribution image is edited to edit the spectacle lens performance index distribution image. An eyeglass lens performance display device comprising means for creating and displaying a moving image of an image.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Example 1
FIG. 1 is a diagram showing a flow of creating a spectacle lens performance index distribution image according to Example 1 of the present invention, FIG. 2 is a diagram showing a flow of creating a distribution image of average power excess / deficiency and astigmatism, and FIG. FIG. 4 is a diagram showing a flow of creating an index distribution image, FIG. 4 is a diagram showing a flow of creating a deformation index distribution image, FIG. 5 is an explanatory diagram in the case of tracking a microcircular chief ray centered on an object point, and FIG. FIG. 7 is a diagram showing a coordinate system of a visual field viewed through a spectacle lens, FIG. 8 is a diagram showing optical parameters (non-adjusted state) of a Navarro model eye, and FIG. 9 is an optical diagram of a Navarro model eye. FIG. 10 is an explanatory diagram of a PSF, FIG. 11 is a diagram showing a spectacle eyeball optical system when viewing an object point, and FIG. 12 is a diagram showing a method of dividing an entrance pupil. FIG. 13 shows an original image. FIG. 14 is an example of a blur index distribution diagram based on the distorted original image when observing the field of view shown in the original image of FIG. Hereinafter, the spectacle lens performance display method according to Example 1 of the present invention will be described with reference to these drawings.
[0007]
The spectacle lens performance index display method according to this embodiment is a method of generating and displaying a distribution of spectacle lens performance index as a still image when a three-dimensional object created by computer graphics is viewed through a lens. The distribution of the spectacle lens performance index distribution according to the first embodiment is roughly divided into (1) original image generation process, (2) distortion original image generation process, (3) spectacle frame position acquisition process, and (4) performance index. An acquisition step, and (5) an imaging step.
[0008]
(1) Original image creation process
This process creates and arranges a virtual object by computer graphics in a virtual three-dimensional space, and this virtual object places a rotation center point at a specific position and enters a specific visual field entering a eye having a specific central line-of-sight direction. In this step, a corner image is created as an original image, and an object point distance that is the distance between the object point position represented by each pixel of the original image and the center of rotation of the eye is obtained. This will be described below.
[0009]
(1) Creating a virtual object that is the basis of the original image
First, a virtual three-dimensional object is created and arranged in a virtual three-dimensional space by a known computer graphics technique. For example, an image is created in which desks, chairs, furniture, etc. are arranged in the room, or flower beds, trees, signs, etc. are arranged in the outdoors.
[0010]
Creation of the original image The virtual object created above is a virtual object in a visual field that is in a specific pyramid range with the rotation center point at a specific position, the rotation center point as a vertex, and a specific center line-of-sight direction as the central axis. Create an image as an original image. That is,FIG.As shown in FIG. 4, a quadrangular pyramid A1A2A3A4 with the rotation center point O as the apex and the central visual line direction OA as the central axis is set as the field of view, and an image in that range is created. The original image coordinates of an arbitrary object point P (x, y, z) in the viewing quadrangular pyramid in the coordinate system with O as the origin and AO as the x axis are U = tan β = y / x, V = tan γ = z / x And Here, β and γ are azimuth angles of P (x, y, z). When each object point in the field of view is projected onto the image in this way, an arbitrary straight line in the space is projected as a straight line on the image, so that the projection has no distortion. An image representing each object point by this projection method is used as an original image.
[0011]
(3) Acquisition of object point distance
In the original image creation step, the distance from the coordinate value of P (x, y, z) to the rotation center point is also obtained.
[0012]
(2) Original distortion image creation process
In this step, an image including distortion due to the spectacle lens is created, and the principal ray passing position of each object point is obtained. Here, a light ray emitted from the object point and passing through the spectacle lens toward the rotation center point is defined as a principal ray. The emission direction of the principal ray from the rear surface of the spectacle lens is the direction in which the eyeball faces in order to see the object point, and is defined as the eyeball rotation direction. In particular, the principal ray from the object point at the center of the visual field is defined as the central principal ray, and the eyeball rotation direction is defined as the center eyeball rotation direction.
[0013]
The original distortion image is an image representing the position of the object point represented by each pixel of the original image in the visual field after passing through the spectacle lens, which is the visual field having the central eyeball rotation direction as the central axis. The central principal ray and the central eyeball rotation direction can be obtained using a ray tracing method so as to pass through a predetermined spectacle lens passage position. The position of each object point in the visual field after passing through the spectacle lens can be represented by the relative position of the eyeball rotation direction from the central eyeball rotation direction. The principal ray for each object point, its spectacle lens passing position, and the eyeball rotation direction can be obtained by the ray tracing method.
[0014]
That is,FIG.As shown inFIG.When the spectacle lens L is arranged between the eyeball rotation center point O and the visual field center object point A in order to see A, the eyeball needs to be directed to the lens passing point B instead of the OA direction. The ray ABO is the central principal ray, and the BO direction is the central axis of the visual field after passing through the lens. The position of the arbitrary object point in the image of the visual field after passing through the lens is obtained as follows.
[0015]
First, an x′y′z ′ coordinate system is set with O as the origin and the BO direction as the x ′ axis. A principal ray PQO for an arbitrary object point P (x, y, z) is obtained by a ray tracing method. If the lens passing position is Q (x ′, y ′, z ′) and the azimuth angles in the x′y′z ′ coordinate system are β ′ and γ ′, the coordinates in the image after passing through the spectacle lens are as follows: U ′ = tan β ′ = y ′ / x ′, V ′ = tan γ ′ = z ′ / x ′. When each object point in the field of view is projected onto the image of the field of view after passing through the lens in this way, generally, a straight line in the space does not appear as a straight line on the image, so that an image including distortion by the lens is obtained. The image of the visual field after passing through the spectacle lens created in this way is called a distorted original image. Further, in the original distortion image creation step, the principal ray lens passing position of each object point is also obtained.
[0016]
(3) Eyeglass frame position acquisition process
This step uses the information on the spectacle lens passage position obtained in the distortion original image creation step, obtains the position of the edge of the spectacle frame, the hidden mark, etc. on the original image or the distortion original image, and creates the spectacle frame mark image. It is a process. By comparing the spectacle frame mark image with the original image or the distorted original image, it is possible to accurately grasp through which position of the lens the object on the image is viewed.
[0017]
(4) Performance index acquisition process
This process introduces an accommodation-compatible eyeball model as the optical system of the eye, and for each pixel of the original image, from the object point distance obtained in the original image creation process and the object point obtained in the distortion original image creation process Object point imaging performance in a combined optical system consisting of a spectacle lens and an eyeball model rotated in accordance with the principal ray direction by setting the eyeball model adjustment state according to the frequency of the exiting principal ray at the eyeglass lens passing point This is a process for obtaining an index.
[0018]
Examples of the imaging performance index include an average power excess / deficiency amount, a residual astigmatism component amount, a deformation index indicating the degree of deformation, and a blur index indicating the size of the blur. Further, as an example of the blur index, there is a semi-diagonal length of a circumscribed rectangle of an ellipse when a range of PSF (Point spread function) is approximated to an ellipse.
[0019]
(1) Average frequency deficiency, residual astigmatism component quantity acquisition process
FIG.As shown in FIG. 4, the light beam emitted from the arbitrary object point P is refracted at the lens first surface Q point and heads toward the rotation center point O. The lens refraction effect when looking at the point P is that a spherical wave centering on the point P (a plane wave in the case of an infinitely distant object point) propagates along the light beam, and the light beam and the rear vertex spherical surface (centering around the rotation center point O). , The shape of the wavefront when it reaches the intersection R of the spherical surface passing through the rear vertex C of the lens). In a local coordinate system with the point R as the origin and the RO direction as the x axis, the wavefront shape near the point R is generally expressed by the equation
xD= (1/2) Dyyy2+ Dyzyz + (1/2) Dzzz2 It can be expressed as Dyy, DyzAnd DzzCan be determined using ray tracing.
[0020]
Furthermore, when the x axis is fixed and the yz axis is rotated by an angle,
It becomes the following formula. The first term on the right side of the above formula is a spherical wave component, and the second term is an astigmatic wave component. Where DmaxIs the maximum curvature, DminIs the minimum curvature,
It is.
[0021]
The average curvature is
Dave= (1/2) (Dmax+ Dmin) = (1/2) (Dyy+ Dzz)
And the astigmatism component is
Das= Dmax-Dmin= 2 {(1/4) (Dyy-Dzz)2+ Dyz 2}1/2
It is defined as
[0022]
On the other hand, the refractive state of an eye having astigmatism can be similarly expressed by a corrected wavefront shape at point R. Temporary correction wavefront including astigmatism power and direction
xc= (1/2) Cyyy2+ Cyzyz + (1/2) Czzz2
In the expression, the distance average frequency of eyes is
Cave= (1/2) (Cyy+ Czz)
Astigmatism component is
Cas= 2 {(1/4) (Cyy-Czz)2+ Cyz 2}1/2
It becomes.
[0023]
Similarly, the wavefront of the eye's accommodation power can be defined. Although the degree and direction of astigmatism may change due to adjustment, a case where there is no astigmatism change due to adjustment will be described here. The wave front of the eye conditioning power is
xA= (1/2) A (y2+ Z2)
It can be expressed. Here, A is the adjustment power.
[0024]
Now, when the object point P is viewed, the spectacle lens correction effect wavefront is
x = xC-XA-XD
It can be expressed as Substituting and organizing the above equations, rotating the coordinates, and combining the spherical wave component and the astigmatic wave component,
x = (1/2) ΔD (y'' 2+ Z'' 2) + (1/4) ΔDas(Y'' 2-Z'' 2)
It becomes. here,
ΔD = Cave+ ADave
ΔDas= 2 [(1/4) {(Cyy-Dyy)-(Czz-Dzz)}2
+ (Cyz-Dyz)2]1/2
It is. ΔD is the average frequency excess and deficiency, ΔDasIs defined as the amount of residual astigmatism component. The adjustment power A is from 0 to the maximum adjustment power A.maxThe absolute value of ΔD between the two values becomes a minimum. When ΔD is positive, the frequency is insufficient, and when ΔD is negative, the frequency is excessive.
[0025]
(2) Deformation index acquisition process
This step is a step of obtaining a deformation index representing the degree of deformation felt when viewing an arbitrary object point in space through an arbitrary point on the spectacle lens. Here, the meaning of the deformation of the object point can be said to be what kind of shape the minute circle centered on the object point looks when viewed through the lens. In most cases, the shape can be considered as an ellipse, so the deformation index can be defined by the ellipse parameters.
[0026]
The deformed ellipse is obtained by tracking the chief ray in the vicinity of the object point chief ray. FIG. 5 is an explanatory diagram in the case of tracking a minute circular chief ray centered on an object point. As shown in FIG. 5, when the principal rays of all the object points (dr, θ) on the circumference having the radius dr are centered on the object point P, positions (dr ′, θ ′) after passing through the lens are obtained. The trajectory, that is, the deformed ellipse is obtained. dr is not the length in space but the tangent of the declination from OP.
[0027]
In practice, the principal ray is not traced for all points on the circumference, but the partial derivative values ∂μ '/ ∂u, ∂μ' / ∂ν, ∂ of the image side deviation with respect to the object side deviation ν '/ ∂u, ∂ν' / ∂ν, or conversely, partial derivative values ∂μ / ∂u ', ∂μ / ∂ν', ∂ν / If ∂u ′, ∂ν / ∂ν ′ is obtained, a modified ellipse is obtained. Taking the latter as an example, the partial derivative values ∂μ / ∂u ′ = A, ∂μ / ∂ν ′ = B, ∂ν / ∂u ′ = C, and ∂ν / ∂ν ′ = D will be described. It is as follows.
[0028]
That is,
It is.
[0029]
That means
(Dr '/ dr)2= P / {1 + ecos2 (θ'-α)}
It is. here,
It is.
[0030]
Thus, since p> 0 and 0 ≦ e ≦ 1, the function of changing the enlargement ratio dr ′ / dr depending on the azimuth angle θ ′ is an elliptic function (see FIG. 5). This ellipse is called a deformed ellipse. The maximum and minimum enlargement ratios, that is, the lengths of the major axis and minor axis of the deformed ellipse are a = {p / (1-e)}, respectively.1/2, B = {p / (1 + e)}1/2It becomes. In the present invention, the scale factor (ab)1/2Then, a / b of the major / minor axis ratio and an amount obtained by combining both are defined as a deformation index representing the degree of deformation (= degree). here,
It is.
[0031]
In the deformation index acquisition step, a deformation index is obtained by using the above method for the object point represented by each pixel of the original image or the original distortion image. In the above method, it is necessary to calculate the deformation index for all object points in the image, but if a mathematical method called spline interpolation is used, the deformation index can be obtained with a small amount of calculation within a certain error range. It is. The deformation index distribution image is created according to the flow shown in FIG. To obtain ∂μ / 'u', ∂μ / ∂ν ', ∂ν / ∂u', and ∂ν / ∂ν ', in addition to the ray tracing method, a spline of principal ray data calculated in advance is used. There is also a method of obtaining by an interpolation type differential calculation.
[0032]
The average power excess / deficiency amount and residual astigmatism component amount step is a step of obtaining the average power excess / deficiency amount and residual astigmatism component amount by using the above method for the object point represented by each pixel of the original image or the distorted original image. . In the above method, it is necessary to calculate the average power excess / deficiency amount, the residual astigmatism component amount, and the residual astigmatism component amount for all object points on the image. It is possible to obtain the average power excess / deficiency amount, residual astigmatism component amount, and residual astigmatism component amount with a small amount of calculation within the error range. The average power excess / deficiency amount and the residual astigmatism component amount distribution image are created by the flow shown in FIG.
[0033]
(3) PSF acquisition process
This process introduces an accommodation-compatible eyeball model as the optical system of the eye, and matches the object point distance obtained in the original image creation process and the frequency at the spectacle lens passing point obtained in the distortion original image creation process. In a combined optical system of a spectacle lens and an eyeball model rotated in accordance with the principal ray direction, a PSF (Point spread) representing the luminance distribution on the retina of the accommodation-compatible eyeball model by the light emitted from the object point is set. function: a point spread function).
[0034]
(A) Introduction of accommodation-compatible eyeball model
In order to obtain the PSF on the retina, it is necessary to introduce an eyeball optical system. In this case, since the eye has an adjusting action according to the object distance, it must be taken into consideration. In this embodiment, R.I. An accommodation-dependent eye model by Navarro et al. Was used. In the Navarro model, not only paraxial values but also spherical aberrations and chromatic aberrations are adapted to the actual measured values of the eye. With a simple four-surface configuration, three of them are aspherical surfaces with axially symmetric quadric surfaces. The crystalline lens does not have a refractive index distribution structure, and the tracking calculation is simple. The radius of curvature, thickness, and asphericity change in proportion to the logarithm of the adjustment power. FIG. 8 shows optical parameters when the eyeball model is not adjusted by Navarro et al. Further, FIG. 9 shows the dependency formula of the parameter depending on the adjustment. Aspherical surface is y2+ Z2+ (1 + Q) x2-2Rx = 0. Q is the asphericity.
[0035]
(B) Calculation of PSF
A) Meaning of PSF
As shown in FIG. 10, the PSF is a function that represents an aggregate state of points (spots) where light rays emitted from one point of the real object are collected on the imaging plane, and is represented by the number of spots per unit area. be able to. In the case of a perfect optical system, the PSF has all spots gathered at the image point, and its distribution is a vertical straight line, but usually has a shape similar to a broadened Gaussian distribution.
[0036]
B) Acquisition method of PSF
FIG. 11 is a diagram showing the relationship between the tracking ray and the entrance pupil in the optical system for obtaining the PSF when the object point P is viewed through the Q point on the lens. The light beam from the object point P is refracted at the lens surface Q point, the emission direction changes, and reaches the rotation point O. It appears to the eye that the object point P is on the extended line of the exit light direction QO. Thus, when viewing P, first, the optical axis of the eyeball is rotated in the QO direction, and the degree of adjustment is determined according to the distance of P and the refractive power of the Q point. At this point, the optical system is solidified and PSF can be obtained.
[0037]
As described above, the PSF is the density of spots on the imaging plane of light rays emitted from an object point and passing through the centers of a number of regions obtained by equally dividing the entrance pupil. Strictly speaking, the position of the entrance pupil is the object side conjugate point of the pupil. However, the pupil position changes with rotation, and the position of the conjugate point varies depending on the adjustment state. On the other hand, the position of the center of rotation is fixed, and the distance from the conjugate point of the pupil is very small compared to the object distance. Therefore, in the case of the naked eye, the position of the entrance pupil can be considered as the center of rotation. When wearing spectacles, the entrance pupil of the entire optical system is a conjugate point to the spectacle lens at the center of rotation, but in the case of a progressive lens, the power varies depending on the passing point, and its position changes slightly. Since the amount of change is also small compared to the object distance, the position of the entrance pupil is at the point O ′ on the extension line of PQ, and it can be assumed that PO = PO ′.
[0038]
In order to obtain an accurate PSF, it is important to divide the entrance pupil into a large number of small regions having a uniform distribution. As shown in FIG. 12, there are two types of division methods, lattice division and spiral division. Although good uniformity can be obtained by the grid division, only about 70% of the planned rays can be traced because there are useless portions at the four corners. On the other hand, in the spiral division, unnecessary ray tracing does not occur while maintaining uniformity. In this embodiment, the spiral division method is adopted.
[0039]
In this way, PSF is obtained by tracking a large number of rays that are emitted from an object point and pass through a uniform division point of the entrance pupil, and calculating the density of spots on the retina surface. In the PSF acquisition method, it is necessary to perform ray tracing calculation for all combinations of object points and entrance pupil division points. However, if a mathematical method called spline interpolation is used, a small amount of calculation is required within a certain error range. Thus, it is possible to obtain the spot position on the retinal surface and further obtain the PSF which is the density of the spot on the retinal surface.
[0040]
The PSF obtained by the above method can accurately reflect the blur when the spectacle lens is worn and the outside world is viewed by convolution calculation with the original distortion image. However, in this form of PSF, the calculation time is long and it is inconvenient to use for quantitative analysis of the imaging performance of the lens. If PSF is approximated to a certain function and parameters of the function are used, quantitative analysis can be easily performed. A method for approximating PSF to a two-dimensional normal distribution function will be described below.
[0041]
[Expression 1]
Here, μ and ν are the vertical and horizontal deviations on the retina, and σ, respectively.μ, Σν, Ρ are parameters of a normal distribution. These parameters have the following properties:
−1 <ρ <1
σμ> 0
σν> 0
The locus of the point where the exponent part of the above equation is -1/2 is
(Μ2/ Σμ 2) + (Ν2/ Σν 2)-(2ρμν / σμσν) = 1−ρ2
The length ratio of the major and minor axes of the ellipse, the direction of the major axis, etc., which can represent the range of PSF expansion, are closely related to the magnitude and direction of astigmatism.
[0042]
Parameter σ of two-dimensional normal distribution functionμ, ΣνConsidering a method for obtaining, ρ from ray data, statistic values of intersections of a large number of rays scattered on the (μ, ν) plane (each intersection point corresponding to each division point on the entrance pupil) are obtained, and σμ, Σν, Ρ is naturally floating. That means
[Expression 2]
It is. Where N is the number of rays and (μi, Νi) Is the intersection coordinates.
σμ 0, Σν 0If ρ is a parameter of the approximate normal distribution as it is, it may be deviated from the actual PSF depending on the distribution situation. In that case, an appropriate proportional constant k is determined, and σμ= Kσν 0, Σν= Σν 0It is necessary to adjust the parameter.
As described above, the parameters of the two-dimensional normal distribution function, which is an approximate function of PSF, can be acquired using the statistics of the light spot on the retina. When adopting the method of obtaining the parameters by approximating the PSF to the two-dimensional normal distribution function by the above method, it is necessary to perform ray tracing and statistical calculation for all object points. If the method is used, it is possible to acquire the parameters of the two-dimensional normal distribution function with a small amount of calculation within a certain error range.
[0043]
(C) Calculation of blur index from PSF
The blur index represents the size of a wide range of PSF (Point Spread Function) representing blur, and the smaller the blur index, the better the image quality and the clearer it is. A PSF approximated by a two-dimensional normal distribution function can be expressed by an ellipse, so that a numerical value representing the size of the ellipse can be defined as a blur index. In addition, the definition of the blur index requires consistency and stationarity. Innocence means that no contradiction occurs. For example, when the area of an ellipse is defined as a blur index, if the ellipse is degenerated into a line segment, the blur index is zero. Therefore, in this case, a contradiction occurs that the image quality is good no matter how large astigmatism is, and it is not appropriate to define the area of the ellipse as a blur index. The stationarity means that the blur index does not change even if the ellipse rotates unless the size and shape of the ellipse change. In this embodiment, half of the diagonal length of the circumscribed rectangle having invariance and stationarity is defined as the blur index. That is, P = (σμ 2+ Σν 2)1/2It is. The blur index distribution image is created by the flow shown in FIG.
[0044]
(5) Imaging process
In this process, the imaging performance index for the object point represented by each pixel obtained in the performance index acquisition process is converted into a gray value or RGB luminance value of the image and displayed at a position on the original image or the distorted original image. This is a step of creating a performance index distribution image by creating an image and combining the lens frame mark image created in the frame position acquisition step.
[0045]
FIG. 13 is a diagram illustrating an original image according to the first embodiment. The printed material is placed on the table, and the front liquid crystal display is placed about 80 cm. In addition, there is a wall 2.5 meters ahead. FIG. 14 shows a still image of the blur index distribution image when this field of view is viewed through a progressive lens for eyeglasses (HOYALUX SUMMIT; trade name of Hoya Co., Ltd.) with 0.00D addition for right eye distance and 2.50D. The field of view is 102.5 ° left and right, and 86.2 ° up and down. The spectacle frame has a top and bottom size of 40 mm and a width of 50 mm. A datum line on the frame, distance power, and near power measurement ring are displayed. The black side means less blur and the white side means more blur.
[0046]
In the example of FIG. 14, the conversion from the blur index to the image gray value is performed when the blur index is P (unit: mm), and the image gray value N is N = 3.767 × 10.ThreeIf the integer calculated by P exceeds 256, a value of 255 is assigned. In addition, as a display method, the blur index can be represented by RGB three primary color luminance values instead of gray values. In the case of expressing with RGB three primary color luminance values, the image gray value N can be converted into RGB three primary color luminance values by the following formula.
[Equation 3]
[0047]
It can be seen that the above-described blur index distribution image clearly reproduces the imaging performance of the spectacle lens. According to this embodiment, it is possible to display the imaging performance of the lens when viewed through the spectacle lens in accordance with the image viewed in the lens usage state, and it is possible to evaluate the lens performance in the usage state.
[0048]
(Example 2)
This embodiment is an example in which a large number of still images of the figure of merit distribution image in
[0049]
According to the second embodiment described above, a moving image that reproduces a change in performance when viewing the outside through a progressive lens when the position of the eye is changed, the line of sight is moved, or the position of the line of sight passing through the lens is changed. Is obtained. Therefore, it becomes possible to evaluate the imaging performance of the eyeball lens in a form very close to the actual use situation. Further, if the lens frame mark is displayed on the moving image display screen, the evaluation can be performed while checking the movement of the line of sight on the lens.
[0050]
Next, an apparatus for carrying out the method shown in the above embodiment will be briefly described. FIG. 16 is a block diagram showing a schematic configuration of an apparatus for carrying out the method of the embodiment. As shown in FIG. 16, this apparatus includes a
[0051]
The
[0052]
The
[0053]
【The invention's effect】
As described in detail above, the spectacle lens performance display method and apparatus according to the present invention defines a figure of merit that represents the spectacle lens performance for all object points in the field of view when the outside world is observed through the spectacle lens. It is characterized by displaying the magnitude of this figure of merit in a display format that can be visually grasped, so that the performance when wearing spectacle lenses can be visually compared with the actual usage situation. Makes it possible to evaluate.
[Brief description of the drawings]
FIG. 1 is a diagram showing a flow of creating a figure of merit distribution image.
FIG. 2 is a diagram showing a flow of creating an astigmatism distribution image with average power over / under.
FIG. 3 is a diagram illustrating a flow of creating a blur index distribution image.
FIG. 4 is a diagram showing a flow of creating a deformation index distribution image.
FIG. 5 is an explanatory diagram for tracking a minute circular chief ray centered on an object point.
FIG. 6 is a diagram showing a coordinate system of a naked eye visual field.
FIG. 7 is a diagram showing a coordinate system of a visual field viewed through a spectacle lens.
FIG. 8 is an explanatory diagram of optical parameters (non-adjusted state) of a Navarro model eye.
FIG. 9 is a diagram showing an adjustment power dependence equation of optical parameters of a Navarro model eye.
FIG. 10 is an explanatory diagram of PSF.
FIG. 11 is a diagram showing an eyeglass optical system when viewing an object point.
FIG. 12 is an explanatory diagram of an entrance pupil division method.
13 is a diagram showing an original image of Example 1. FIG.
14 is a diagram showing a blur index distribution image of Example 1. FIG.
FIG. 15 is a diagram illustrating a flow of creating a moving image of a figure of merit distribution image.
FIG. 16 is a block diagram showing a configuration of an apparatus for carrying out the spectacle lens performance display method according to the present invention.
Claims (8)
特定の回旋中心点を持つ眼に入る特定視野範囲の画像を原画像として作成し、各画素の代表する物体点から前記回旋中心点までの距離を取得する原画像作成工程と、
前記眼鏡レンズを通して見た場合の視野の歪みを、光線追跡法を用いて求め、その歪みを含めた画像である歪み原画像を作成するとともに、前記原画像または歪み原画像の各画素の代表する物体点から出射する光線の眼鏡レンズ通過位置を取得する歪み原画像作成工程と、
前記歪み原画像作成工程で得られた物体点光線眼鏡レンズ通過位置データを用い、眼鏡フレームの前記原画像または前記歪み原画像上の位置を表す眼鏡フレームマーク画像を作成する眼鏡フレーム位置取得工程と、
前記眼鏡レンズ及び眼球モデルよりなる光学系において、前記原画像または前記歪み原画像の各画素の代表する物体点に対する性能指数を取得する性能指数取得工程と、
前記性能指数取得工程で得られた性能指数の値に応じて決めた濃淡値またはRGB三原色輝度値を、前記原画像または前記歪み原画像の対応画素に付与して性能指数分布画像を作成するとともに、前記眼鏡フレーム位置取得工程で作成された眼鏡フレームマーク画像と合成する画像化工程と、
を有することを特徴とする請求項2記載の眼鏡レンズ性能表示方法。The step of creating the figure of merit distribution image includes
An original image creation step of creating an image of a specific visual field range entering an eye having a specific rotation center point as an original image, and obtaining a distance from the object point represented by each pixel to the rotation center point;
The distortion of the visual field when viewed through the spectacle lens is obtained using a ray tracing method, and a distortion original image that is an image including the distortion is created, and the original image or each pixel of the distortion original image is represented. A distortion original image creation step of acquiring a spectacle lens passing position of a light beam emitted from an object point;
A spectacle frame position acquisition step for creating a spectacle frame mark image representing the original image of the spectacle frame or the position on the distorted original image using the object point ray spectacle lens passage position data obtained in the distortion original image creation step; ,
In the optical system comprising the spectacle lens and the eyeball model, a performance index acquisition step of acquiring a performance index for the object point represented by each pixel of the original image or the distortion original image;
While creating a figure of merit distribution image by assigning the gray value or RGB three primary color luminance value determined according to the figure of merit obtained in the figure of merit index to the corresponding pixels of the original image or the distorted original image An imaging step of combining with the spectacle frame mark image created in the spectacle frame position acquisition step;
The eyeglass lens performance display method according to claim 2, comprising :
仮想三次元空間にコンピュータグラフィックスによる仮想物体を作成して配置し、仮想三次元空間内の特定の位置に回旋中心点を置き、前記回旋中心点を頂点とし且つ特定の中心視線方向中心軸とした特定角錐範囲である視野内にある仮想物体の画像を原画像として作成するとともに、前記原画像の各画素の代表する物体点からと前記回旋中心点までの距離である物体点距離を求める原画像作成工程と、
物体点から出射し、眼鏡レンズを通って回旋中心点に向かう光線を主光線、主光線の眼鏡レンズ後面からの出射方向を眼球回旋方向と定義したとき、眼鏡レンズ上特定位置を通過する視野の中心にある物体点からの主光線である中心主光線とその眼球回旋方向である中心眼球回旋方向を光線追跡法で求め、前記中心眼球回旋方向を中心軸とする視野である眼鏡レンズ通過後視野における前記原画像の各画素の代表する物体点の位置を各該物体点に対する眼球回旋方向として光線追跡法で求め、眼鏡レンズ通過後視野の画像、すなわち各該物体点に対する歪みを含む画像である歪み原画像を作成するとともに、各該物体点に対する主光線の眼鏡レンズ通過位置を求める歪み原画像作成工程と、
前記歪み原画像作成工程で得られた物体点光線眼鏡レンズ通過位置データを用い、眼鏡フレームの前記原画像または前記歪み原画像上の位置を表す眼鏡フレームマーク画像を作成する眼鏡フレーム位置取得工程と、
前記眼球モデルとして調節対応眼球光学系モデルを導入し、前記原画像または前記歪み原画像の各画素の代表する物体点に対し、前記原画像作成工程で得られた物体点距離と前記歪み原画像作成工程で得られた主光線眼鏡レンズ通過位置における眼鏡レンズ度数に合わせて前記眼球光学系モデルの調節状態を設定し、前記眼鏡レンズと前記物体点に対する眼球回旋方向に合わせて回旋した眼球光学系モデルとの合成光学系における眼鏡レンズ性能指数を取得する性能指数取得工程と、
前記眼鏡レンズ性能指数の値に応じて決めた濃淡値またはRGB三原色輝度値を、前記原画像または前記歪み原画像の対応画素に付与して性能指数分布画像を作成するとともに、前記フレーム位置取得工程で作成された眼鏡フレームマーク画像と合成する画像化工程と、
を有することを特徴とする請求項2又は3に記載の眼鏡レンズ性能表示方法。The step of creating the figure of merit distribution image includes
Create and place a virtual object by computer graphics in a virtual three-dimensional space, place a rotation center point at a specific position in the virtual three-dimensional space, and use the rotation center point as a vertex and a specific central line-of-sight direction central axis An image of a virtual object in the field of view of the specific pyramid range is created as an original image, and an object point distance that is a distance from the object point represented by each pixel of the original image to the rotation center point is obtained. Image creation process;
When the light beam that exits from the object point and passes through the spectacle lens toward the center of rotation is defined as the principal ray, and the exit direction of the principal ray from the rear surface of the spectacle lens is defined as the eyeball rotation direction, A central principal ray that is a principal ray from an object point in the center and a central eyeball rotation direction that is the direction of eyeball rotation are obtained by a ray tracing method, and a visual field after passing through a spectacle lens that is a field of view having the center eyeball rotation direction as a central axis The position of an object point represented by each pixel of the original image in FIG. 5 is obtained by ray tracing as the eyeball rotation direction with respect to each object point, and is an image of a visual field after passing through a spectacle lens, that is, an image including distortion for each object point. A distortion original image creating step for creating a distortion original image and obtaining a principal ray passing position of the principal ray for each object point;
A spectacle frame position acquisition step for creating a spectacle frame mark image representing the original image of the spectacle frame or the position on the distorted original image using the object point ray spectacle lens passage position data obtained in the distortion original image creation step; ,
An eyeball optical system model corresponding to the adjustment is introduced as the eyeball model, and the object point distance obtained in the original image creation step and the distortion original image with respect to the object point represented by each pixel of the original image or the distortion original image. An eyeball optical system in which the adjustment state of the eyeball optical system model is set in accordance with the spectacle lens power at the principal ray spectacle lens passage position obtained in the creation step, and is rotated in accordance with the eyeball rotation direction with respect to the eyeglass lens and the object point A performance index acquisition step of acquiring a spectacle lens performance index in a synthetic optical system with the model;
A gray scale value or RGB three primary color luminance value determined according to the value of the spectacle lens performance index is given to corresponding pixels of the original image or the distorted original image to create a performance index distribution image, and the frame position acquisition step An imaging process to be combined with the eyeglass frame mark image created in
The eyeglass lens performance display method according to claim 2, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001111543A JP3919069B2 (en) | 2000-04-11 | 2001-04-10 | Eyeglass lens performance display method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000109704 | 2000-04-11 | ||
JP2000-109704 | 2000-04-11 | ||
JP2001111543A JP3919069B2 (en) | 2000-04-11 | 2001-04-10 | Eyeglass lens performance display method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002014006A JP2002014006A (en) | 2002-01-18 |
JP3919069B2 true JP3919069B2 (en) | 2007-05-23 |
Family
ID=26589874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001111543A Expired - Fee Related JP3919069B2 (en) | 2000-04-11 | 2001-04-10 | Eyeglass lens performance display method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3919069B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003042905A (en) * | 2001-07-27 | 2003-02-13 | Pentax Corp | Method and device for evaluating spectacle lens |
EP1291633B1 (en) * | 2001-09-06 | 2005-09-28 | Hoya Corporation | Method for evaluating binocular performance of spectacle lenses, method for displaying said performance and apparatus therefore |
CN101118317B (en) * | 2002-02-27 | 2010-11-03 | Cdm光学有限公司 | Optimized image processing for wavefront coded imaging systems |
JP5098739B2 (en) * | 2008-03-25 | 2012-12-12 | セイコーエプソン株式会社 | Simulation device, simulation program, and recording medium recording simulation program |
JP5223826B2 (en) * | 2009-09-18 | 2013-06-26 | 富士通株式会社 | 3D model generation method and 3D model generation program for camera visual field range |
WO2015125848A1 (en) * | 2014-02-19 | 2015-08-27 | ホヤ レンズ タイランド リミテッド | Spectacle lens supply system, spectacle lens supply method, spectacle lens supply program, spectacle lens recommended type presentation device, and spectacle lens production method |
-
2001
- 2001-04-10 JP JP2001111543A patent/JP3919069B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002014006A (en) | 2002-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3342423B2 (en) | Eye optical system simulation device | |
EP1158338B1 (en) | Method for simulating an ocular optical system and apparatus therefor | |
US5677750A (en) | Apparatus for and method of simulating ocular optical system | |
US6618054B2 (en) | Dynamic depth-of-field emulation based on eye-tracking | |
EP1146328B1 (en) | Indicating the performance of a spectacle lens by displaying an index in a visually understandable mode | |
JP5133255B2 (en) | Method for calculating magnification and / or aberration and method for manufacturing a spectacle lens with low magnification and / or aberration | |
EP2230988B1 (en) | Method of simulating blur in digitally processed images | |
US6979084B2 (en) | Method for evaluating binocular performance of spectacle lenses, method for displaying binocular performance, and apparatus therefore | |
JP3919097B2 (en) | Binocular visual performance display method and apparatus for spectacle lens | |
US20120026183A1 (en) | Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses | |
JP4846985B2 (en) | Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus | |
Loos et al. | Using wavefront tracing for the visualization and optimization of progressive lenses | |
JP3919069B2 (en) | Eyeglass lens performance display method and apparatus | |
US6965385B2 (en) | Method for simulating and demonstrating the optical effects of glasses on the human face | |
JP3825654B2 (en) | Ophthalmic optical system simulation method and apparatus | |
JP4535412B2 (en) | Lens performance evaluation method | |
Nießner et al. | Real-time simulation and visualization of human vision through eyeglasses on the GPU | |
JP3328100B2 (en) | Eye optical system simulation device | |
JP3328098B2 (en) | Eye optical system simulation device | |
JP3735842B2 (en) | Computer-readable recording medium storing a program for driving an eye optical system simulation apparatus | |
JP3328096B2 (en) | Eye optical system simulation device | |
EP1330785A2 (en) | Dynamic depth-of-field emulation based on eye-tracking | |
WO2021200133A1 (en) | Eyeglasses lens evaluation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3919069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100223 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130223 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140223 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |