JP4846985B2 - Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus - Google Patents
Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus Download PDFInfo
- Publication number
- JP4846985B2 JP4846985B2 JP2004124531A JP2004124531A JP4846985B2 JP 4846985 B2 JP4846985 B2 JP 4846985B2 JP 2004124531 A JP2004124531 A JP 2004124531A JP 2004124531 A JP2004124531 A JP 2004124531A JP 4846985 B2 JP4846985 B2 JP 4846985B2
- Authority
- JP
- Japan
- Prior art keywords
- astigmatism
- lens
- spectacle
- object distance
- interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Testing Of Optical Devices Or Fibers (AREA)
- Eyeglasses (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明は、光学特性の測定、シミュレーションなどにおけるデータの補間方法、特に非点収差や平均度数誤差の補間方法に関する。また、本発明は、被処方者に眼鏡レンズ装用時の状態を疑似体験させるためのシミュレーション画像処理装置や画像処理方法、さらには該眼鏡レンズの性能評価方法や性能評価装置に関する。 The present invention relates to a data interpolation method in measurement of optical characteristics, simulation, and the like, and more particularly to an interpolation method for astigmatism and average power error. The present invention also relates to a simulation image processing apparatus and an image processing method for allowing a prescriber to experience a state of wearing a spectacle lens in a simulated manner, and further to a performance evaluation method and a performance evaluation apparatus for the spectacle lens.
近年、眼鏡レンズに要求される光学性能が高くなるにつれて、該光学性能の評価の精度向上が重要な課題の一つになっている。光学性能の高精度な評価の実現には、様々な使用条件下における該眼鏡レンズの光学特性(主として非点収差や平均度数誤差)を測定したり、シミュレーション等したりする必要がある。 In recent years, as the optical performance required for spectacle lenses increases, improvement in the accuracy of evaluation of the optical performance has become one of the important issues. In order to realize high-accuracy evaluation of optical performance, it is necessary to measure or simulate the optical characteristics (mainly astigmatism and average power error) of the spectacle lens under various usage conditions.
眼鏡レンズの光学性能を評価する際に考慮すべき使用条件としては、様々なものが考えられるが、主として眼鏡レンズを通してみる物体までの距離(以下、単に物体距離という)がある。特に老視を矯正する累進屈折力レンズは、レンズの部位によって異なった距離にあるものを見ることができる。即ち、レンズの上部は遠方のものを見るために使用され、レンズの下部では近方(手元)のものを見るために使用される。また、レンズの中間部は、使用条件としての物体距離が連続的に変化しており、遠方と近方の中間の距離にあるものを見るために使用される。累進屈折力レンズは、上記のような使用条件を仮定して、それぞれの物体距離において、最適な光学性能が得られるような設計がなされている。そのため、該累進屈折力レンズの性能評価において、物体距離は非常に重要である。具体的には、レンズ上部の評価のための物体距離は無限遠での評価でよい。しかし、レンズの下部の評価物体距離は手元30センチメートル程度、中心部からレンズ下部に至るまでの中間部では、物体距離が無限遠から手元30センチメートル程度まで連続的に変化すると仮定して評価を行う必要がある。 There are various usage conditions that should be considered when evaluating the optical performance of the spectacle lens, and there is mainly a distance to an object viewed through the spectacle lens (hereinafter simply referred to as an object distance). In particular, progressive-power lenses that correct presbyopia can be seen at different distances depending on the part of the lens. That is, the upper part of the lens is used to see a distant object, and the lower part of the lens is used to see a near object. The middle part of the lens is used for viewing an object at a distance between the far and near distances, with the object distance continuously changing as a use condition. The progressive-power lens is designed so as to obtain optimum optical performance at each object distance assuming the use conditions as described above. Therefore, the object distance is very important in the performance evaluation of the progressive power lens. Specifically, the object distance for evaluating the upper part of the lens may be evaluated at infinity. However, the evaluation object distance at the lower part of the lens is about 30 centimeters at hand, and the evaluation is performed assuming that the object distance continuously changes from infinity to about 30 centimeters at the middle part from the center to the lower part of the lens. There is a need to do.
実際の眼鏡レンズの光学特性を測定する装置としては、一般にレンズメータが用いられる。レンズメータは、被検レンズが単焦点の場合、無限遠から光束を入射させたときの集光位置を測定または演算することによって該被検レンズの光学特性を測る。これに対して、被検レンズが上記のような累進屈折力レンズの場合、上記のような実際の使用条件を満たすために、有限距離での光学特性を測定する必要がある。有限距離での光学特性を測定する方法としては、本出願人が提案の特開平11−125580号公報や特開平11−125582号公報などが挙げられる。 A lens meter is generally used as an apparatus for measuring the optical characteristics of an actual spectacle lens. When the lens to be examined is a single focal point, the lens meter measures the optical characteristics of the lens to be examined by measuring or calculating the light collection position when the light beam is incident from infinity. On the other hand, when the test lens is a progressive power lens as described above, it is necessary to measure optical characteristics at a finite distance in order to satisfy the actual use conditions as described above. Examples of the method for measuring optical characteristics at a finite distance include Japanese Patent Laid-Open Nos. 11-125580 and 11-125582 proposed by the present applicant.
各公報では、着脱自在なアタッチメントレンズを設けることにより、物体距離が有限である光学系を構成可能なレンズメータが開示される。このようなレンズメータを、以下の本文では、可変物体距離レンズメータと呼ぶ。 Each gazette discloses a lens meter that can constitute an optical system having a finite object distance by providing a detachable attachment lens. Such a lens meter is referred to as a variable object distance lens meter in the following text.
上記の可変物体距離レンズメータを用いて累進屈折力レンズを測定する場合、レンズの部位に応じて、アタッチメントレンズを交換し、評価物体距離を変化させながら測定しなくてはならない。また、物体距離とレンズにおける評価部位を互いに変化させたい場合、例えば中間部の領域を狭くしたい場合、改めて可変物体距離レンズメータでアタッチメントレンズを交換しながら再度測定や評価を行わなくてはならない。このように、従来のレンズメータでは、累進屈折力レンズを実際の使用条件に沿った観測条件で光学特性を測定する場合、時間や手間がかかってしまう問題点があった。 When measuring a progressive-power lens using the above variable object distance lens meter, it is necessary to replace the attachment lens according to the part of the lens and measure while changing the evaluation object distance. Further, when it is desired to change the object distance and the evaluation portion of the lens, for example, when it is desired to narrow the intermediate area, the measurement and evaluation must be performed again while exchanging the attachment lens with the variable object distance lens meter. As described above, the conventional lens meter has a problem in that it takes time and labor to measure the optical characteristics of the progressive power lens under observation conditions in accordance with actual use conditions.
また近年、眼鏡処方におけるテーラーメイド医療を行うために必要な情報を取得したり、またはインフォームドコンセントとして診療に必要な情報を被処方者に提供したりするために、該被処方者が眼鏡を装用した場合にどのような見え方をするかをシミュレーションする眼鏡装用シミュレーション装置の開発が急がれている。より精確な情報を取得、あるいは提供できるようにするためには、シミュレーションに必要な光学特性を精密に算出することが必要不可欠である。しかし、多様な使用条件の変化を想定した上で、上記の精密な算出処理を行うためには、多大な労力が要求される。 In addition, in recent years, the prescription person wears spectacles to acquire information necessary for performing tailor-made medical care in spectacle prescription or to provide information necessary for medical care as an informed consent to the prescriber. There is an urgent need for the development of a spectacle wearing simulation device that simulates what the appearance looks like. In order to obtain or provide more accurate information, it is indispensable to accurately calculate the optical characteristics necessary for the simulation. However, a great deal of labor is required to perform the above-described precise calculation process assuming various changes in use conditions.
一般的に、眼鏡装用シミュレーション装置では、シミュレーション対象となる眼鏡(つまり、将来被検者が装用するであろう眼鏡)を装用したときに観察されるシミュレーション画像が作成される。被検者は、該シミュレーション画像を観察することにより、将来眼鏡をかけた時の視界を疑似体験することができる。そのため、該映像は、シミュレーション対象となる眼鏡のレンズの収差に起因して発生するボケが可能な限り忠実に再現されていたほうがよい。つまり、眼鏡レンズ、特に累進屈折力レンズのシミュレーションにおいて、処方度数、フィッティング状態(眼とレンズの位置関係)といった使用者の条件を満たし、かつ高品質なシミュレーション画像を得るという課題は、レンズのボケの物体距離に対する変化をどの程度まで精確に表現できるかという課題と同義である。該課題を解決するためには、レンズ各部位における物体距離の変化に応じた光学特性の変化を、高精度かつ短時間で求めることが必要不可欠である。 In general, in a spectacle wearing simulation apparatus, a simulation image that is observed when wearing spectacles to be simulated (that is, spectacles that a subject will wear in the future) is created. By observing the simulation image, the subject can experience the visual field when wearing glasses in the future. For this reason, it is desirable that the image be reproduced as faithfully as possible with respect to the blur caused by the aberration of the eyeglass lens to be simulated. In other words, in the simulation of spectacle lenses, particularly progressive-power lenses, the problem of obtaining a high-quality simulation image that satisfies the user's conditions such as prescription power and fitting state (positional relationship between the eye and the lens) is the lens blur. It is synonymous with the problem of how accurately the change to the object distance can be expressed. In order to solve this problem, it is indispensable to obtain a change in optical characteristics in accordance with a change in object distance at each part of the lens with high accuracy and in a short time.
シミュレーション実行時において、ボケが光学的に高い精度をもって再現されるためには、従来、以下のような処理を経る必要がある。まず、ボケのない入力原画像の特定の一画素において、物体から射出され、眼鏡レンズ(眼鏡光学系)を介して瞳に入射する光線を光線追跡する。そして、該光線追跡の結果に基づいて結像面上におけるスポットダイヤグラムを求める。次いで、結像面、すなわち網膜上のスポットダイヤグラム密度から点像分布関数(PSF:Point Spread Function)を取得する。さらに、取得したPSFと物体の輝度とのコンボリューション演算をすることにより、網膜上での輝度分布を取得する。以上の処理を入力原画像の全画素について行う。 In order to reproduce blur with optically high accuracy at the time of simulation execution, conventionally, it is necessary to go through the following processing. First, at a specific pixel of the input original image without blur, a ray emitted from an object and incident on the pupil via a spectacle lens (glasses optical system) is traced. Then, a spot diagram on the imaging plane is obtained based on the result of the ray tracing. Next, a point spread function (PSF) is acquired from the spot diagram density on the imaging plane, that is, the retina. Furthermore, the luminance distribution on the retina is acquired by performing a convolution calculation between the acquired PSF and the luminance of the object. The above processing is performed for all pixels of the input original image.
以上のような一連の処理を全画素について行うには、膨大な回数の数値演算が必要とされる。つまり、被処方者や術者に心理的な負担を与えない現実的な時間内にシミュレーション画像を取得することは略不可能である。また、上記一連の処理を円滑に処理するために必要とされるハードウェアのコストが非常に高くつくといった問題もある。そのため、いくつかの解決策として、PSFを特定の関数に近似することにより、より簡便に取得することが試みられている。このようなPSF取得方法としては、例えば、以下の特許文献1や特許文献2に開示される。
特許文献1では、PSFを楕円形に広がる一様な関数であると近似する。そして、対象となる眼鏡レンズの非点収差や平均度数誤差、および被処方者に必要であると仮定される調整力を用いて、該楕円の広がりを決定している。しかし、該文献では、非点収差や平均度数誤差が物体距離によって変化するという点を殆ど考慮していない。 In Patent Document 1, the PSF is approximated as a uniform function spreading in an elliptical shape. Then, the astigmatism of the target spectacle lens, the average power error, and the adjustment force assumed to be necessary for the prescriber are used to determine the spread of the ellipse. However, this document hardly takes into consideration that astigmatism and average power error vary depending on the object distance.
特許文献2では、上記PSFを2次元のガウス分布関数であると仮定する。そして、多数回の光線追跡を必要としない所定の評価量を該ガウス分布のパラメータとして採用し、さらに半経験的なパラメータを導入する。これにより、該ガウス分布関数を、実際にスポットダイアグラムから求めたPSFの分布に近似させている。また、特許文献2では、眼鏡レンズにおける使用条件が変化する、具体的には物体距離が変化する場合には、上記所定の評価量を物体距離に対して3次スプライン補間法で補間する手法を採っている。しかし、上記所定の評価量が3次スプライン補間法で補間するのに適した性質を有するかどうかが全く不明である。そのため、補間結果が実際に測定した時に得られる結果に対応するかどうか定かではない。また、そもそも3次スプライン補間法は、処理が煩雑であるため、処理速度のより一層の向上も近年要望されている。 In Patent Document 2, it is assumed that the PSF is a two-dimensional Gaussian distribution function. Then, a predetermined evaluation amount that does not require many times of ray tracing is adopted as a parameter of the Gaussian distribution, and a semi-empirical parameter is introduced. Thus, the Gaussian distribution function is approximated to the PSF distribution actually obtained from the spot diagram. Patent Document 2 discloses a method of interpolating the predetermined evaluation amount with respect to the object distance by a cubic spline interpolation method when the use condition of the spectacle lens changes, specifically, when the object distance changes. Adopted. However, it is completely unknown whether the predetermined evaluation amount has a property suitable for interpolation by a cubic spline interpolation method. Therefore, it is not certain whether the interpolation result corresponds to the result obtained when actually measured. Further, since the cubic spline interpolation method is complicated in the first place, further improvement in processing speed has been demanded in recent years.
以上の事情に鑑みて、本発明は、測定装置やシミュレーション等などにより実測された複数の物体距離に対する光学特性に基づいて、任意の物体距離に対する光学特性の、実測値により近い補間値を短時間で簡易に取得することができる光学特性補間方法、および該補間方法を用いた眼鏡装用シミュレーション画像処理方法やレンズ評価方法、さらには各方法を実現するための装置を提供することを目的とする。 In view of the above circumstances, the present invention can quickly calculate an interpolation value closer to an actual measurement value of an optical characteristic for an arbitrary object distance based on optical characteristics for a plurality of object distances actually measured by a measuring device, a simulation, or the like. It is an object of the present invention to provide an optical characteristic interpolation method that can be easily acquired by the method, a spectacle wearing simulation image processing method and a lens evaluation method using the interpolation method, and a device for realizing each method.
上記の問題を鑑みて、本発明に係る光学特性の補間方法は、測定装置やシミュレーション等から少なくとも2カ所以上の物体距離に対して観測された光学特性に基づいて、任意の物体距離に対する光学特性の、実測値により近い補間値を取得可能としている。 In view of the above problems, the optical property interpolation method according to the present invention is based on optical properties observed for at least two object distances from a measuring device, simulation, etc., and optical properties for an arbitrary object distance. The interpolation value closer to the actual measurement value can be acquired.
まず、本発明によって補間される光学特性について図14に示す光学系を用いて説明する。図14において、眼鏡レンズLの後面頂点P1から近軸結像点P2までの距離をバックフォーカスfBとする。また、眼の回旋中心である眼球回旋点Cとレンズ後面頂点P1とを結ぶ直線の長さを半径とし、眼球回旋点Cを中心とした球面を頂点球面と呼び、このうち後面頂点側の半面を光学系の最終面Seとする。最終面Seから眼鏡レンズ51の最大屈折力断面における結像点までの距離をLm(単位:ミリメートル)、最終面Seから眼鏡レンズLの最小屈折力断面における結像点までの距離をLs(単位:ミリメートル)とした時、平均度数誤差AP(単位:ディオプター)は、次の式(5)によって定義することができる。
本出願人は、上記式(5)により定義された平均度数誤差APが、後に示すように、物体距離の逆数に対してほぼ線形的な変化を示すことに着目した。平均度数誤差が物体距離の逆数に対し線形性を持つことにより、任意の物体距離に対して線形補間法等の簡便な補間法を用いて、その補間値を求める事ができる。 The present applicant paid attention to the fact that the average power error AP defined by the above equation (5) shows a substantially linear change with respect to the reciprocal of the object distance, as will be described later. Since the average power error has linearity with respect to the reciprocal of the object distance, an interpolation value can be obtained for a given object distance using a simple interpolation method such as a linear interpolation method.
また、非点収差の大きさAS(単位:ディオプター)は、次の式(6)によって定義することができる。
ここで、非点収差の大きさASは、一般的に、物体距離とその逆数の両方に対して、非線形な変化を示す。しかし本発明は、以下に示す手順を踏むことにより、平均度数誤差APと同様に平易な線形補間法等でその補間値を得ている。 Here, the astigmatism magnitude AS generally shows a non-linear change with respect to both the object distance and its reciprocal. However, according to the present invention, the interpolation value is obtained by a simple linear interpolation method or the like in the same manner as the average power error AP by following the procedure shown below.
本発明に係る非点収差の補間方法は、非点収差の和(差)の計算を、長さが非点収差の大きさ、方位角が非点収差の方位角の2倍である2つのベクトルの合成操作として扱えるという原理を応用する。以下、非点収差成分に対応するベクトルを非点収差基底ベクトルという。具体的には、非点収差の補間に際し、以下の処理を行う。まず、非点収差を、少なくとも二カ所の物体距離における非点収差の大きさおよび方位角を測定またはシミュレーション等により算出する(算出処理)。次いで、上記2つのベクトルの合成操作を利用しつつ、算出した非点収差を方位角の異なる2つの非点収差成分に分解する(分解処理)。次いで、成分ごとに少なくとも二カ所間の物体距離に対する値より補間する(補間処理)。そして、上記合成操作を利用して、補間された各々の成分を合成することによって、非点収差の補間値を求める(合成処理)。 The astigmatism interpolation method according to the present invention calculates the sum (difference) of astigmatism using two astigmatism magnitudes and azimuth angles twice astigmatism azimuth angles. Apply the principle that it can be handled as a vector composition operation. Hereinafter, a vector corresponding to the astigmatism component is referred to as an astigmatism basis vector. Specifically, the following processing is performed when astigmatism is interpolated. First, astigmatism is calculated by measuring or simulating the magnitude and azimuth of astigmatism at at least two object distances (calculation processing). Next, the calculated astigmatism is decomposed into two astigmatism components having different azimuth angles (decomposition processing) using the above two vector combining operation. Next, interpolation is performed for each component based on the value for the object distance between at least two locations (interpolation processing). Then, using the synthesis operation, the interpolated components are synthesized to obtain an astigmatism interpolation value (synthesis process).
上記分解処理において、非点収差は、方位角の差が90°の整数倍でない2つの非点収差成分に分解される。非点収差成分の方位角の差が90°の整数倍であるということは、対応する非点収差基底ベクトルの方位角の差が180°の倍数になる、つまり2つの非点収差基底ベクトルが1次従属であることを意味する。従って、非点収差を2つの非点収差基底ベクトル(つまり方位角の異なる2つの非点収差成分)に分解することができなくなる。2つの非点収差の方位角の差が90°の倍数でない、即ち非点収差基底ベクトルが互いに1次独立であるように設定することにより、任意の非点収差を方位角の異なる二つの成分に分解することができる。 In the decomposition process, the astigmatism is decomposed into two astigmatism components whose azimuth angle difference is not an integral multiple of 90 °. The difference in the azimuth angle of the astigmatism component is an integral multiple of 90 °, which means that the difference in the azimuth angle of the corresponding astigmatism basis vector is a multiple of 180 °, that is, the two astigmatism basis vectors are Means primary dependency. Therefore, astigmatism cannot be decomposed into two astigmatism basis vectors (that is, two astigmatism components having different azimuth angles). By setting the difference between the azimuth angles of two astigmatisms not to be a multiple of 90 °, that is, the astigmatism basis vectors are linearly independent from each other, any astigmatism can be converted into two components having different azimuth angles. Can be broken down into
さらに2つの非点収差成分の方位角の差が45°であれば対応する2つの非点収差基底ベクトルは直交するため、分解処理が簡易になる。特に方位角が0°の非点収差成分と45°の非点収差成分に分解することが望ましい。かかる発明によれば、方位角が0°の非点収差成分と45°の非点収差成分に対応する2つの非点収差基底ベクトルは、座標軸に対して0°と90°の基底ベクトル、即ち、X軸方向の単位ベクトル(1,0)とY軸方向の単位ベクトル(0,1)となるため、各成分の大きさを求める演算等が容易になる。 Furthermore, if the difference in azimuth between the two astigmatism components is 45 °, the corresponding two astigmatism basis vectors are orthogonal, so that the decomposition process is simplified. In particular, it is desirable to decompose into an astigmatism component with an azimuth angle of 0 ° and an astigmatism component with a 45 ° angle. According to this invention, the two astigmatism basis vectors corresponding to the astigmatism component having an azimuth angle of 0 ° and the astigmatism component of 45 ° are the basis vectors of 0 ° and 90 ° with respect to the coordinate axis, that is, Since the unit vector (1, 0) in the X-axis direction and the unit vector (0, 1) in the Y-axis direction are used, calculation for obtaining the size of each component becomes easy.
ここで、複数(iカ所、但しi=1〜n。以下同様とする。)の物体距離di、例えば2カ所の物体距離であればd1、d2、に対する非点収差の大きさの実測値をASi、方位角の実測値をAXiとする。そして、算出処理により求められた非点収差を0°と45°に方位角をもつ非点収差成分に分解した場合、方位角0°の非点収差成分の大きさASix、方位角45°の非点収差成分の大きさASiyは、それぞれ以下の式(1)、(2)で表される。
任意の物体距離dに対しての非点収差を求める時は、以下のようにする。まず、上記の各非点収差成分の大きさASix、ASiyより、その補間値~ASx(d)、~ASy(d) を求め、以下の式(3)に代入する事により、任意の物体距離dに対する非点収差の大きさ~AS(d)が求められる。また、補間値~ASx(d)、~ASy(d) を以下の式(4)に代入する事により、任意の物体距離dに対する非点収差の方位角~AX(d)が求められる。
上記式(3)、(4)は、方位角が2AXである非点収差基底ベクトルの合成操作から導出される式である。また、本出願人は、上記式(1)、(2)により定義された非点収差成分ASix、ASiyが、後に示すように、物体距離の逆数に対してほぼ線形的な変化を示すことに着目した。このことは、簡便な線形補間法等により、非点収差の補間値が十分に高い精度をもって取得可能なことを意味する。 The above expressions (3) and (4) are expressions derived from the astigmatism basis vector combining operation with an azimuth angle of 2AX. Further, the applicant of the present invention is that the astigmatism components ASix and ASyy defined by the above formulas (1) and (2) show a substantially linear change with respect to the reciprocal of the object distance, as will be described later. Pay attention. This means that an astigmatism interpolation value can be obtained with sufficiently high accuracy by a simple linear interpolation method or the like.
眼鏡装用シミュレーション装置に用いられる画像処理方法においては、シミュレーションを行う際に、元となる入力原画像に対し、該画像上の画素1点1点における物体距離に基づいて、光学性能を評価する事が必要である。そこで本発明に係る眼鏡装用シミュレーション画像処理方法によれば、眼鏡レンズ装用時に体感されるボケを発生させるボケ発生手段に、上述した光学特性補間方法を使用すればよい。 In the image processing method used in the spectacle wearing simulation apparatus, when performing simulation, optical performance is evaluated based on the object distance at each pixel on the image with respect to the original input original image. is required. Therefore, according to the spectacle wearing simulation image processing method according to the present invention , the above-described optical characteristic interpolation method may be used for the blur generating means for generating the blur experienced when wearing the spectacle lens.
ボケ発生手段に上記の光学特性補間方法を用いる眼鏡装用シミュレーション装置は、まず対象となるレンズの2次元的に格子点上に分布した標本点(xli,yli)において、少なくとも2点以上の物体距離における光学特性を予め計算し、主記憶または記憶媒体に記憶しておく。次に、原画像の各画素がレンズ上のどの部位(xl,yl)に対応するかを求め、標本点での少なくとも2つの物体距離に対応する光学特性から(xl,yl)の位置での複数の物体距離に対応する光学特性を補間し、そして最後に実際に求めたい物体距離の光学特性を、上記少なくとも2点の物体距離における光学特性の値から、線形補間法などの補間法により物体距離に関して補間することにより求める。ここで、上記のように光学特性が物体距離の逆数に対し非常に良好な線形性を持つ。従って、線形補間法による処理で十分に高い精度のシミュレーション画像、換言すれば実際に装用したときの見え方と略同様のボケ具合を有したシミュレーション画像を作成することができる。 The eyeglass-wearing simulation apparatus that uses the above-described optical characteristic interpolation method as the blur generation means firstly has an object distance of at least two points or more at sample points (xli, yli) distributed two-dimensionally on the lattice points of the target lens. The optical characteristics are calculated in advance and stored in the main memory or storage medium. Next, it is determined which part (xl, yl) on the lens each pixel of the original image corresponds to, and from the optical characteristic corresponding to at least two object distances at the sample point, at the position (xl, yl). Interpolate the optical characteristics corresponding to a plurality of object distances, and finally calculate the optical characteristics of the object distance to be actually obtained from the optical characteristic values at the object distances of at least two points by an interpolation method such as a linear interpolation method. Obtained by interpolating distance. Here, as described above, the optical characteristics have very good linearity with respect to the reciprocal of the object distance. Therefore, it is possible to create a simulation image with sufficiently high accuracy by the processing by the linear interpolation method, in other words, a simulation image having substantially the same degree of blur as when it is actually worn.
このように、本発明に係る眼鏡装用シミュレーション装置、およびシミュレーション画像処理方法によれば、レンズ全範囲の光学特性を少なくとも2つの物体距離で実計算することにより、任意の物体距離での光学特性を評価する事が可能になり、高品質かつ高精度なシミュレーション画像を得ることができる。なお、補間方法としては、線形補間法以外にも3次スプライン法などより高次の補間法を用いることができる。但し、高次の補間法を使用する場合は、実際の計算を行う物体距離は2カ所では足りず、4カ所以上必要となる。 As described above, according to the spectacle wearing simulation apparatus and the simulation image processing method according to the present invention, the optical characteristics at an arbitrary object distance can be obtained by actually calculating the optical characteristics of the entire lens range with at least two object distances. It becomes possible to evaluate, and a high-quality and highly accurate simulation image can be obtained. As an interpolation method, in addition to the linear interpolation method, a higher-order interpolation method than the cubic spline method can be used. However, when using a higher-order interpolation method, the object distance for actual calculation is not sufficient in two places, and four or more places are required.
本発明に係るレンズ評価方法は、光源からの光束を被検眼鏡レンズに入射させ、該被検眼鏡レンズを通過した後の光束の状態を観測手段により観測することにより、被検眼鏡レンズの光学特性を求めるレンズ評価方法であって、光源または観測手段の共役点を、被検眼鏡レンズから有限距離の位置に作るステップと、少なくとも2カ所の物体距離(そのうちの少なくとも一カ所の物体距離が前記有限距離)において、被検眼鏡レンズの光学特性を求めるステップと、上記光学特性補間方法を用いて、任意の物体距離の光学特性を算出するステップと、を含む。 In the lens evaluation method according to the present invention, the light beam from the light source is incident on the test eyeglass lens, and the state of the light beam after passing through the test eyeglass lens is observed by the observation means, so that A lens evaluation method for obtaining characteristics, wherein a conjugate point of a light source or observation means is formed at a finite distance from an eyeglass lens to be examined, and at least two object distances (of which at least one object distance is A step of obtaining optical characteristics of the eyeglass lens to be examined at a finite distance , and a step of calculating optical characteristics of an arbitrary object distance using the optical characteristic interpolation method.
本発明に係るレンズ評価方法によれば、従来の可変物体距離レンズメータにおける測定の煩雑さを避ける解決策として、以下のような方法をとる事が考えられる。まず測定したい眼鏡レンズの全範囲を、アタッチメントレンズなし、即ち物体距離無限の条件で測定する。次に、上記眼鏡レンズの全範囲を、想定される最も近い物体距離を実現する屈折力を持つアタッチメントレンズを挿入して測定する。そして、レンズ各部位の実際の使用条件に応じた評価には、上記2つの物体距離の測定値から補間した値を用いる。補間方法としては、上述した光学特性補間方法を用いる。これにより、レンズ全範囲を少なくとも2つの物体距離で測定することにより、任意の物体距離でレンズの各部位の光学性能を評価することが可能になった。 According to the lens evaluation method according to the present invention , the following method can be considered as a solution for avoiding the complexity of measurement in the conventional variable object distance lens meter. First, the entire range of the spectacle lens to be measured is measured under the condition that there is no attachment lens, that is, the object distance is infinite. Next, the entire range of the spectacle lens is measured by inserting an attachment lens having a refractive power that realizes the closest possible object distance. For the evaluation according to the actual use condition of each part of the lens, a value interpolated from the measured values of the two object distances is used. As the interpolation method, the optical characteristic interpolation method described above is used. As a result, by measuring the entire lens range at at least two object distances, it becomes possible to evaluate the optical performance of each part of the lens at an arbitrary object distance.
以上のように、本発明によれば、測定装置やシミュレーション等から少なくとも2カ所以上の物体距離に対して実測された光学特性に基づいて、任意の物体距離に対する光学特性の、より実測値に近い補間値を取得することができる。しかも本発明は、各光学特性が物体距離の逆数に対して線形性を有することを利用するため、従来の補間方法に比べ、より簡易かつ短時間で任意の物体距離に対する光学特性の補間値を取得することができる。 As described above, according to the present invention, the optical characteristic for an arbitrary object distance is closer to the actually measured value based on the optical characteristics actually measured for at least two object distances from a measuring device or simulation. Interpolated values can be acquired. In addition, since the present invention utilizes the fact that each optical characteristic has linearity with respect to the reciprocal of the object distance, the interpolation value of the optical characteristic for an arbitrary object distance can be obtained in a simpler and shorter time than the conventional interpolation method. Can be acquired.
以下、本発明の実施形態について、図面を参照しつつ説明する。図1は、本発明の眼鏡レンズの光学特性補間方法を使用する眼鏡装用シミュレーション装置100のハードウェア構成を示す。図1に示す実施形態の眼鏡装用シミュレーション装置100は、累進屈折力レンズを用いた老視矯正用の眼鏡を装用した場合、どのような視界を得ることができるかを被検者(詳しくは眼鏡購入予定者)に疑似体験させるための装置である。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a hardware configuration of a spectacle wearing simulation apparatus 100 that uses the spectacle lens optical characteristic interpolation method of the present invention. The spectacle wearing simulation apparatus 100 according to the embodiment shown in FIG. 1 determines what field of view can be obtained when wearing spectacles for correcting presbyopia using a progressive power lens. This is a device for making a simulated purchase experience).
図1に示すように、眼鏡装用シミュレーション装置100は、様々な処理を実行するCPU21、CPU21が実行する処理に関するプログラムや該処理中に生成あるいは入力される諸データを一時的に記憶する主記憶装置(RAM)22、CPU21が実行するプログラムを記憶するストレージデバイス23、を有する。CPU21が主となり実行する画像処理については後に詳述する。 As shown in FIG. 1, a spectacle wearing simulation apparatus 100 includes a CPU 21 that executes various processes, a program related to processes executed by the CPU 21, and various data generated or input during the processes. (RAM) 22 and a storage device 23 for storing a program executed by the CPU 21. Image processing performed mainly by the CPU 21 will be described in detail later.
また、眼鏡装用シミュレーション装置100は、装用予定の眼鏡レンズの光学性能を反映させたシミュレーション画像を表示するための画像表示装置として機能するPCモニタ24、ヘッドマウントディスプレイ(以下、HMDという)25を有する。被検者はPCモニタ24等に映し出されたシミュレーション画像を見ることにより、眼鏡装用時の視界を疑似体験する。装置100は、他にも、種々の処理を実行するCPU21に対して適宜指示を入力するための入力機器(キーボード26、マウス27)、眼鏡装用シミュレーションに必要な諸データを外部機器との間でやり取りするための入出力インターフェース28、PCモニタ21等の画像表示装置にシミュレーション処理過程やシミュレーション処理結果に関する画像を送るために蓄えておくフレームバッファ29A、29Bを有する。また、各構成要素は互いにバスSBによって接続されている。 Further, the spectacle wearing simulation apparatus 100 includes a PC monitor 24 and a head mounted display (hereinafter referred to as HMD) 25 that function as an image display apparatus for displaying a simulation image reflecting the optical performance of the spectacle lens to be worn. . The subject sees the simulation image displayed on the PC monitor 24 or the like to experience the visual field when wearing glasses. In addition to the above, the apparatus 100 receives input data (keyboard 26, mouse 27) for appropriately inputting instructions to the CPU 21 that executes various processes, and various data necessary for the spectacle wearing simulation with an external device. Frame buffers 29A and 29B are provided for storing images related to the simulation process and simulation processing results to an image display device such as an input / output interface 28 and a PC monitor 21 for exchange. Each component is connected to each other by a bus SB.
なお上記の通り、本実施形態では、ストレージデバイス23にCPU21が実行する処理に関するプログラムが予め記憶されている。但し、該プログラムは必ずしもストレージデバイス23に記憶されてある必要はない。例えば、入出力インターフェース28を介して情報読み出し機器を接続することにより、CD−ROMやDVD−ROMなど外部記憶媒体から該プログラムを供給することも可能である。さらには、オンライン接続されたデータベースにインターネット等を介して接続することにより、該データベースから該プログラムを供給することも可能である。 As described above, in the present embodiment, the storage device 23 stores in advance a program related to processing executed by the CPU 21. However, the program is not necessarily stored in the storage device 23. For example, the program can be supplied from an external storage medium such as a CD-ROM or a DVD-ROM by connecting an information reading device via the input / output interface 28. Further, the program can be supplied from the database by connecting to the database connected online via the Internet or the like.
図2は、上記眼鏡装用シミュレーション装置100に搭載される画像処理システム50に関するブロック図である。画像処理システム50において、シミュレーション画像の元となる原画像は、原画像入力部11(図1中、入出力インターフェース28を含む)を介して入力される。原画像は、デジタルカメラなどからの実画像でも良いし、コンピュータグラフィックス(CG)ソフト等を用いて作成した人工画像でも良い。原画像入力部11は、入力された原画像を画像処理部12に伝送する。 FIG. 2 is a block diagram relating to the image processing system 50 mounted on the spectacle wearing simulation apparatus 100. In the image processing system 50, an original image as a base of a simulation image is input via the original image input unit 11 (including the input / output interface 28 in FIG. 1). The original image may be an actual image from a digital camera or the like, or an artificial image created using computer graphics (CG) software or the like. The original image input unit 11 transmits the input original image to the image processing unit 12.
パラメータ入力部13は、被検者が所望する眼鏡レンズの設計パラメータを入力するために設けられている。具体的には、パラメータ入力部13は、図1に示すキーボード26やマウス27が相当する。設計パラメータとしては、球面屈折力、乱視屈折力、乱視軸方向等の処方値が例示される。また、本実施形態のように累進屈折力レンズ装用時をシミュレーション対象とする場合、さらに加入屈折力、累進帯長、使用距離、などのパラメータも設計パラメータに追加される。入力された設計パラメータは、レンズデータ生成部14に出力される。 The parameter input unit 13 is provided to input spectacle lens design parameters desired by the subject. Specifically, the parameter input unit 13 corresponds to the keyboard 26 and the mouse 27 shown in FIG. Examples of design parameters include prescription values such as spherical power, astigmatic power, and astigmatic axis direction. Further, when the progressive power lens wearing is set as a simulation target as in the present embodiment, parameters such as addition power, progressive zone length, usage distance, and the like are further added to the design parameters. The input design parameters are output to the lens data generation unit 14.
レンズデータ生成部14は、設計パラメータに基づいて、被検者が装用しようとする仮想の眼鏡レンズに関する光学データを生成する。光学データとは、例えば、光線追跡に必要な光学的情報、即ちレンズの屈折率、曲率、レンズ厚さや、レンズ間の距離などレンズ配置等である。生成された光学データは、画像処理部12に送信される。なお、レンズデータ生成部14は、図1に示すコントローラ21、RAM22、ストレージデバイス23等を含む。 The lens data generation unit 14 generates optical data related to a virtual spectacle lens that the subject intends to wear based on the design parameters. The optical data is, for example, optical information necessary for ray tracing, that is, lens arrangement such as lens refractive index, curvature, lens thickness, and distance between lenses. The generated optical data is transmitted to the image processing unit 12. The lens data generation unit 14 includes the controller 21, the RAM 22, the storage device 23, and the like shown in FIG.
画像処理部12はシミュレーション画像を生成する画像処理部である。具体的には後述するが、画像処理部12は、原画像入力部11から出力された原画像と、レンズデータ生成部14から送信された光学データとを用いて、シミュレーション画像を生成する。生成されたシミュレーション画像は画像出力部15(図1に示すフレームバッファ29A、29Bに相当)を介して画像表示装置16に出力される。画像表示装置16とは、図1に示したPCモニタ24やHMD25等である。このようなシステム50によって生成されたシミュレーション画像を観察することにより、被検者は将来自分が所有するであろう眼鏡を装用した時の視界を疑似体験することが可能になる。 The image processing unit 12 is an image processing unit that generates a simulation image. Although specifically described later, the image processing unit 12 generates a simulation image using the original image output from the original image input unit 11 and the optical data transmitted from the lens data generation unit 14. The generated simulation image is output to the image display device 16 via the image output unit 15 (corresponding to the frame buffers 29A and 29B shown in FIG. 1). The image display device 16 is the PC monitor 24 or the HMD 25 shown in FIG. By observing the simulation image generated by such a system 50, the subject can experience the field of view when wearing glasses that he will own in the future.
図3は、画像処理システム50が行う一連の画像処理の流れを示すフローチャートである。まず、ステップS1において、レンズデータ生成部14が、パラメータ入力部13で入力された各種設計パラメータを読み込む。そして、レンズデータ生成部14は、該設計パラメータに基づいて、被検者の所望する仮想のレンズを設計し、後のステップで行われる光線追跡に必要な光学データを生成する(S3)。 FIG. 3 is a flowchart showing a flow of a series of image processing performed by the image processing system 50. First, in step S <b> 1, the lens data generation unit 14 reads various design parameters input by the parameter input unit 13. Then, the lens data generation unit 14 designs a virtual lens desired by the subject based on the design parameters, and generates optical data necessary for ray tracing performed in a later step (S3).
また、原画像入力部11は、S5において、パーソナルコンピュータやデジタルカメラ等の外部機器もしくは装置100の内蔵メモリから原画像OIの輝度値B(xo,yo)を読み込む。さらに原画像OIは、奥行き方向の距離情報を持つとより望ましい。ここでCGソフトなどを利用して作成された人工画像は、作成時に上記の距離情報を付与することが可能である。そのため、S5において、距離情報を取得することは比較的容易である。しかし、デジタルカメラなどから取り込んだ実画像は通常距離情報を有していない。従って実画像を取り込む場合には、該実画像に基づいて距離情報を取得する、距離情報取得工程をS5にさらに組み込む事がより望ましい。距離情報取得行程としては、例えば、予め複数の視点から撮影した実画像を用意し、ステレオマッチング法等を用いて距離情報を取得する方法等が挙げられる。 In S5, the original image input unit 11 reads the luminance value B (xo, yo) of the original image OI from an external device such as a personal computer or a digital camera or the built-in memory of the apparatus 100. Further, it is more desirable that the original image OI has distance information in the depth direction. Here, the artificial image created by using CG software or the like can be given the above distance information at the time of creation. Therefore, it is relatively easy to acquire distance information in S5. However, an actual image captured from a digital camera or the like usually does not have distance information. Therefore, when capturing an actual image, it is more desirable to further incorporate a distance information acquisition step of acquiring distance information based on the actual image into S5. Examples of the distance information acquisition process include a method of preparing real images taken from a plurality of viewpoints in advance and acquiring distance information using a stereo matching method or the like.
画像処理部12は、S7において、S3で得られた仮想レンズの光学データを用いて光線追跡を行い、複数の物体距離におけるレンズの光学特性を評価する。仮想レンズにおいて評価対象となる部位は、物体点に対応するレンズの全部位ではなく、標本点についてだけ行う。これにより計算処理にかかる負担を削減する。この際、設定する物体距離の少なくとも1点は無限遠である事が望ましい。評価した光学特性データは光学特性テーブルOTとしてRAM22上に記憶しておく。 In S7, the image processing unit 12 performs ray tracing using the optical data of the virtual lens obtained in S3, and evaluates the optical characteristics of the lens at a plurality of object distances. The part to be evaluated in the virtual lens is not the whole part of the lens corresponding to the object point, but only the sample point. This reduces the burden on the calculation process. At this time, it is desirable that at least one point of the object distance to be set is infinity. The evaluated optical characteristic data is stored on the RAM 22 as an optical characteristic table OT.
そして、画像処理部12は、上記の各工程によって得られたデータを用いて、仮想レンズを介して見た場合の視界に対応するシミュレーション画像を得るための画像処理を行う(S9)。この処理の詳細については、図4を用いて後述する。 Then, the image processing unit 12 performs image processing for obtaining a simulation image corresponding to the field of view when viewed through the virtual lens, using the data obtained by the above steps (S9). Details of this processing will be described later with reference to FIG.
S9の画像処理により生成されたシミュレーション画像は、画像出力部15を介して画像表示装置16に出力される。なお、入力原画像を多数用意し、上記一連の処理を全入力原画像に対し行うことで、目的とする仮想レンズ眼鏡光学系のシミュレーション動画映像を生成することも可能である。 The simulation image generated by the image processing in S9 is output to the image display device 16 via the image output unit 15. Note that it is also possible to generate a simulation video image of the target virtual lens eyeglass optical system by preparing a large number of input original images and performing the above-described series of processing on all input original images.
次に、図4を参照しつつ、画像処理部12が行う画像処理(図3中、S9)について詳説する。まずS11において、画像処理部12は、出力先の画像(つまりシミュレーション画像)SIを生成するための作業領域をRAM22上に確保する。次いで、画像処理部12は、シミュレーション画像SIの全画素について画像処理が行われているか否かを判断する(S13)。S13において、全画素について処理が終っていると判断すると、画像処理部12は、S9の画像処理を終了する。また、S13において、まだ画像処理が行われていない画素があると判断した場合には、S15へ進む。 Next, the image processing (S9 in FIG. 3) performed by the image processing unit 12 will be described in detail with reference to FIG. First, in S <b> 11, the image processing unit 12 secures a work area on the RAM 22 for generating an output destination image (that is, a simulation image) SI. Next, the image processing unit 12 determines whether image processing has been performed for all the pixels of the simulation image SI (S13). If it is determined in S13 that the processing has been completed for all pixels, the image processing unit 12 ends the image processing in S9. If it is determined in S13 that there is a pixel that has not been subjected to image processing, the process proceeds to S15.
画像処理部12は、予め原画像OIおよび出力画像SIおよびレンズ部位の位置を、互いに直交するXとYの二つの座標によって規定している。まず、S15において、処理の対象となる出力画像SIの位置(xs,ys)に対応するレンズ上の位置(xl,yl)、及び原画像位置(xo,yo)、及び物体距離doを求める。次に、S16において、光学特性テーブルOTよりレンズ上の位置(xl,yl)における複数の物体距離に対する光学特性を補間により求める。次に、S17において、複数の物体距離に対する光学特性をd方向に補間し、物体距離doに対する光学特性を求める。S17の具体的な補間処理方法については後述する。 The image processing unit 12 predefines the positions of the original image OI, the output image SI, and the lens part by two coordinates X and Y orthogonal to each other. First, in S15, the position (xl, yl) on the lens corresponding to the position (xs, ys) of the output image SI to be processed, the original image position (xo, yo), and the object distance do are obtained. Next, in S16, optical characteristics for a plurality of object distances at positions (xl, yl) on the lens are obtained by interpolation from the optical characteristics table OT. Next, in S17, the optical characteristics for a plurality of object distances are interpolated in the d direction to obtain the optical characteristics for the object distance do. A specific interpolation processing method in S17 will be described later.
なお、S17における本実施形態の補間処理方法では、物体距離の逆数を取り、線形補間法を用いているが、本発明に係る光学特性の補間方法は、高次のスプライン補間法を用いることもできる。但し、線形補間法を用いる場合には、実測値は2カ所で足りるが、高次のスプライン補間法を用いる場合には、4カ所以上の実測値が必要となる。従って、線形補間法を用いれば、必要とされる実測値がより少なくてすむため、補間処理をはじめとするシミュレーション画像生成にかかる時間や手間をより少なくすることができる。また、スプライン補間法を用いれば、補間に用いる実測値が多いため、より精度の高い補間結果を得ることができる。 In the interpolation processing method of this embodiment in S17, the inverse of the object distance is taken and the linear interpolation method is used. However, the optical characteristic interpolation method according to the present invention may use a higher-order spline interpolation method. it can. However, when the linear interpolation method is used, two actual measurement values are sufficient, but when the higher-order spline interpolation method is used, four or more actual measurement values are required. Therefore, if the linear interpolation method is used, less actual measurement values are required, so that it is possible to reduce the time and labor required for simulation image generation including interpolation processing. Further, when the spline interpolation method is used, since there are many actual measurement values used for interpolation, a more accurate interpolation result can be obtained.
S19では、S17により求められた光学特性に基づいて近似された点像分布関数PSFを求める。次いで、S21において、該近似PSFより出力画像SIの位置(xs,ys)に寄与する原画像OIの範囲を求め、寄与する範囲の原元画像の輝度値B(xo,yo)に重みとしてのPSFを掛けて足しこんだ値で出力画像SIの輝度値B’(xs,ys)を更新する。続いて、次の画素を設定し(S23)、以下S13からの処理を繰り返す。以上の処理を実行することにより、対象とする眼鏡レンズのボケを再現したシミュレーション画像を生成する事ができる。 In S19, a point spread function PSF approximated based on the optical characteristics obtained in S17 is obtained. Next, in S21, the range of the original image OI contributing to the position (xs, ys) of the output image SI is obtained from the approximate PSF, and the luminance value B (xo, yo) of the original image in the contributing range is used as a weight. The luminance value B ′ (xs, ys) of the output image SI is updated with the value added by applying the PSF. Subsequently, the next pixel is set (S23), and the processing from S13 is repeated. By executing the above processing, it is possible to generate a simulation image that reproduces the blur of the target spectacle lens.
ここで、S17で行われる、累進屈折力レンズの光学特性の補間方法について説明する。以下の説明で想定する累進屈折力レンズは、屈折力1.67、累進帯長14ミリメートル、球面屈折力4.00ディオプター、加入屈折力2.00ディオプターである。図5A〜Fは、それぞれ、実測結果に基づく該累進屈折力レンズの平均度数誤差および、非点収差の大きさの分布を表す等高線グラフである。図5Aから図5Fの順に、各グラフは、物体距離が無限遠、−1000mm,−500mm,−333mm,−250mm,−200mmの場合について示してある。各グラフから分かるように、平均度数誤差、および非点収差といった光学特性は、ともにその分布が、物体距離に対して大きく変化していることが分かる。 Here, the interpolation method of the optical characteristics of the progressive-power lens performed in S17 will be described. The progressive-power lens assumed in the following description has a refractive power of 1.67, a progressive zone length of 14 mm, a spherical refractive power of 4.00 diopter, and an addition refractive power of 2.00 diopter. 5A to 5F are contour graphs showing the average power error of the progressive-power lens and the distribution of astigmatism magnitudes based on the actual measurement results, respectively. In the order of FIG. 5A to FIG. 5F, each graph shows the case where the object distance is infinity, −1000 mm, −500 mm, −333 mm, −250 mm, and −200 mm. As can be seen from each graph, the distribution of the optical characteristics such as the average power error and astigmatism both change greatly with respect to the object distance.
図6は、上記累進屈折力レンズの平均度数誤差APと物体距離の逆数Do(単位:ディオプター)との関係を表すグラフである。図6中、縦軸が平均度数誤差APを、横軸が物体距離の逆数Doを、それぞれ表す。また、図6中の白抜き丸印は、図5に示す各グラフのうち光学中心を原点としてXY座標で点(20,−10)に位置する画素の平均度数誤差の実測値をプロットしたものである。 FIG. 6 is a graph showing the relationship between the average power error AP of the progressive-power lens and the reciprocal Do (unit: diopter) of the object distance. In FIG. 6, the vertical axis represents the average power error AP, and the horizontal axis represents the reciprocal Do of the object distance. The white circles in FIG. 6 are plots of measured values of the average power error of the pixel located at the point (20, -10) in the XY coordinates with the optical center as the origin in each graph shown in FIG. It is.
また図6中の線は、Do=0(物体距離無限)の時の値と、Do=−5(物体距離−200mm)の時の値とを直線で結んだものである。なお、グラフの原点は眼鏡レンズの前面(第一面)を基準としており、物体距離の符号は、眼鏡レンズに対して前方(物体側)をマイナス、眼鏡レンズに対して顔側をプラスとしている。これらの符号の決め方は、以下に示す全てのグラフにおいても同様である。図6に示すグラフより明らかなように、他の物体距離の時における平均度数誤差の実測値も、ほぼ上記の直線上に位置する、つまり非常に良好な線形性を有している。即ち図6に示すグラフによれば、平均度数誤差は、線形補間法により十分な精度で任意の物体距離に対する補間値を求められることがわかる。 The line in FIG. 6 is obtained by connecting a value when Do = 0 (object distance infinite) and a value when Do = −5 (object distance−200 mm) with a straight line. The origin of the graph is based on the front surface (first surface) of the spectacle lens, and the sign of the object distance is negative for the front (object side) with respect to the spectacle lens and positive for the face side with respect to the spectacle lens. . The method of determining these codes is the same for all graphs shown below. As is apparent from the graph shown in FIG. 6, the measured value of the average power error at other object distances is also almost on the straight line, that is, has a very good linearity. That is, according to the graph shown in FIG. 6, it can be seen that the average power error can be obtained as an interpolation value for an arbitrary object distance with sufficient accuracy by the linear interpolation method.
以上が、平均度数誤差APの補間方法に関する説明である。次いで、非点収差の補間方法について説明する。図7は、上記累進屈折力レンズの非点収差ASと物体距離の逆数Doとの関係を表すグラフである。図7中、縦軸が非点収差ASを、横軸が物体距離の逆数Doを、それぞれ表す。また、図7中の白抜き丸印は、図5に示す各グラフのうち光学中心を原点としてXY座標で点(20,−10)に位置する画素の非点収差の実測値をプロットしたものである。図7のグラフに表された白抜き丸印に示すように、非点収差は、平均度数誤差とは異なり、物体距離の逆数Doに対して線形性を有していない。そこで、本実施形態では、非点収差の和(差)の計算時、該非点収差は、長さが非点収差の大きさ、方位角が非点収差の方位角の2倍である2つのベクトルの合成操作として扱うことができるという原理を利用して、非点収差を補間する。 The above is the description regarding the interpolation method of the average power error AP. Next, an astigmatism interpolation method will be described. FIG. 7 is a graph showing the relationship between the astigmatism AS of the progressive-power lens and the inverse Do of the object distance. In FIG. 7, the vertical axis represents astigmatism AS, and the horizontal axis represents the reciprocal Do of the object distance. Also, the white circles in FIG. 7 are plots of measured values of astigmatism of the pixel located at the point (20, −10) in the XY coordinates with the optical center as the origin in each graph shown in FIG. It is. As indicated by the white circles shown in the graph of FIG. 7, the astigmatism is not linear with respect to the reciprocal Do of the object distance, unlike the average power error. Therefore, in the present embodiment, when calculating the sum (difference) of astigmatism, the astigmatism has two astigmatism magnitudes and azimuths twice astigmatism azimuth angles. Astigmatism is interpolated using the principle that it can be handled as a vector combining operation.
具体的には、まず、実測された非点収差(例えば、Do=0(物体距離無限)の場所の値と、Do=−5(物体距離−200mm)の場所の値)を方位角の異なる二つの非点収差成分に分解する。成分分解は、2つの非点収差成分に対応する非点収差基底ベクトルが互いに1次独立となるようにする、つまり各成分の方位角の差が90°の整数倍ではないようにすることにより実現される。本実施形態では、実測された非点収差をそれぞれ0°と45°の方位角を持つ2つの非点収差成分に分解する。 Specifically, first, the measured astigmatism (for example, the value of the place where Do = 0 (object distance infinite) and the value of the place where Do = −5 (object distance−200 mm)) are different in azimuth. Decomposes into two astigmatism components. Component decomposition is performed by making astigmatism basis vectors corresponding to two astigmatism components linearly independent from each other, that is, by making the difference in azimuth angle of each component not an integer multiple of 90 °. Realized. In this embodiment, the actually measured astigmatism is decomposed into two astigmatism components having azimuth angles of 0 ° and 45 °, respectively.
実測された非点収差をそれぞれ0°と45°の方位角を持つ2つの非点収差成分に分解する場合、ここでiカ所(但しi=1〜n。以下同様とする。)の物体距離diに対する非点収差の大きさの実測値をASi、方位角の実測値をAXiとする。そして、算出処理により求められた非点収差を0°と45°に方位角をもつ非点収差成分に分解した場合、方位角0°の非点収差成分の大きさASix、方位角45°の非点収差成分の大きさASiyは、それぞれ以下の式(1)、(2)で表される。なお、本実施形態ではDo=0(物体距離無限)の場所の値と、Do=−5(物体距離−200mm)の場所の2カ所での非点収差を実測しているため、iは、1または2である。
図8は、方位角0°の非点収差成分の大きさASixと物体距離の逆数Doとの関係を表すグラフである。また、図9は、方位角45°の非点収差成分の大きさASiyと物体距離の逆数Doとの関係を表すグラフである。各グラフ中、縦軸が非点収差成分の大きさASixまたはASiyを、横軸が物体距離の逆数Doを表す。また、各グラフ中の白抜き丸印は、上記式(1)や(2)によって算出された値をプロットしたものである。また図8や図9の線は、Do=0(物体距離無限)の時の値と、Do=−5(物体距離−200mm)の時の値とを直線で結んだものである。 FIG. 8 is a graph showing the relationship between the astigmatism component size ASix having an azimuth angle of 0 ° and the reciprocal Do of the object distance. FIG. 9 is a graph showing the relationship between the astigmatism component magnitude Asiy having an azimuth angle of 45 ° and the reciprocal Do of the object distance. In each graph, the vertical axis represents the astigmatism component size Asix or ASiy, and the horizontal axis represents the reciprocal Do of the object distance. In addition, the white circles in each graph plot the values calculated by the above formulas (1) and (2). The lines in FIGS. 8 and 9 are obtained by connecting the value when Do = 0 (object distance infinite) and the value when Do = −5 (object distance−200 mm) with a straight line.
図8や図9に示すように、他の物体距離の時における非点収差成分の算出値も、ほぼ上記の直線上に位置する、つまり非常に良好な線形性を有していることが分かる。即ち図8や図9に示すグラフによれば、各非点収差成分は、線形補間法により十分な精度で任意の物体距離に対する補間値を求められることがわかる。 As shown in FIG. 8 and FIG. 9, it can be seen that the calculated value of the astigmatism component at other object distances is also almost on the straight line, that is, has a very good linearity. . That is, according to the graphs shown in FIG. 8 and FIG. 9, it can be seen that each astigmatism component can be obtained an interpolation value for an arbitrary object distance with sufficient accuracy by the linear interpolation method.
以上の非点収差成分と物体距離の逆数との関係に基づき、以下のようにして任意の物体距離dに対しての非点収差を求める。まず、上記の各非点収差成分の大きさASix、ASiyより(図8、図9参照)その補間値~ASx(d)、~ASy(d)を求め(但し、dは任意の物体距離)、以下の式(3)に代入する事により、任意の物体距離dに対する非点収差の大きさ~AS(d)を求める。また、補間値~ASx(d)、~ASy(d)を以下の式(4)に代入する事により、任意の物体距離dに対する非点収差の方位角~AX(d)を求める。ここでarctanは−π/2〜+π/2の主値ではなく、~ASx(d)、~ASy(d)の符号を考慮して全象限(−π〜+π)の中から適切な値を取る必要がある。
上記の処理によって、累進屈折力レンズの非点収差の補間が実現される。上記処理によって得られた補間結果に関し、非点収差の大きさは、上記の図7のグラフに示す曲線として表される。また該非点収差の方位角の補間結果は、図10のグラフに示す曲線として表される。このように、非点収差は、物体距離の逆数Doに対して線形性を持つ非点収差成分に分割して、補間することにより、本来非点収差自体は物体距離の逆数Doに対して線形性を有していないにもかかわらず、上述した平均度数誤差と同様に簡易かつ精度の高い補間が可能となる。 By the above processing, astigmatism interpolation of the progressive power lens is realized. Regarding the interpolation result obtained by the above processing, the magnitude of astigmatism is expressed as a curve shown in the graph of FIG. Further, the interpolation result of the azimuth angle of the astigmatism is expressed as a curve shown in the graph of FIG. Thus, astigmatism is divided into astigmatism components having linearity with respect to the reciprocal Do of the object distance and interpolated, so that the astigmatism itself is linear with respect to the reciprocal Do of the object distance. In spite of not having the ability, interpolation can be performed simply and with high accuracy in the same manner as the above average frequency error.
以上が本発明の実施形態である。なお、本発明に係る光学特性の補間方法は、上記眼鏡装用シミュレーション装置100以外でも使用することができる。以下に、本発明に係る光学特性の補間方法を可変物体距離レンズメータに使用した場合の評価結果を説明する。なお、以下の説明において、可変物体距離レンズメータによって評価される対象となる累進屈折力レンズは、上述した眼鏡装用シミュレーション装置で想定される物と同様である。 The above is the embodiment of the present invention. Note that the optical characteristic interpolation method according to the present invention can be used in devices other than the above-mentioned spectacle wearing simulation device 100. The evaluation results when the optical property interpolation method according to the present invention is used in a variable object distance lens meter will be described below. In the following description, the progressive addition lens to be evaluated by the variable object distance lens meter is the same as that assumed in the above-described spectacle wearing simulation apparatus.
図11Aは可変物体距離レンズメータを用いて物体距離無限(Do=0)の場合の累進屈折力レンズの平均度数誤差を、眼球の回旋角(単位:度)に対してプロットしたグラフである。図11Bは可変物体距離レンズメータを用いて物体距離無限の場合の累進屈折力レンズの非点収差の大きさを、眼球の回旋角に対してプロットしたグラフである。図11Aや図11Bに示すグラフの軸Vx、Vyはそれぞれ水平方向、鉛直方向の眼球回旋角を表す。以下に示す図12、13においても同様である。図11A、11Bに示すグラフより、平均度数誤差、および非点収差の大きさ、ともにレンズ上方では良好な性能であることがわかるが、レンズ中心部から下方にかけては、性能劣化が激しくなることが分かる。レンズ下方の内、特にレンズ周辺部において顕著であるが、これは、もともとレンズ周辺部では物体距離無限の観測条件を仮定していないからである。 FIG. 11A is a graph obtained by plotting the average power error of the progressive addition lens with respect to the rotation angle (unit: degree) of the eyeball when the object distance is infinite (Do = 0) using a variable object distance lens meter. FIG. 11B is a graph in which the astigmatism magnitude of the progressive addition lens is plotted against the rotation angle of the eyeball when the object distance is infinite using a variable object distance lens meter. The axes Vx and Vy of the graphs shown in FIG. 11A and FIG. 11B represent the eyeball rotation angles in the horizontal direction and the vertical direction, respectively. The same applies to FIGS. 12 and 13 shown below. From the graphs shown in FIGS. 11A and 11B, it can be seen that both the average power error and the magnitude of astigmatism are good in the upper part of the lens, but the performance deterioration becomes severe from the center of the lens to the lower part. I understand. This is conspicuous in the lower part of the lens, particularly in the peripheral part of the lens, because the observation condition with an infinite object distance is not originally assumed in the peripheral part of the lens.
また、図12Aは可変物体距離レンズメータを用いて、物体距離−200mm(Do=−5)の場合の累進屈折力レンズの平均度数誤差を、眼球の回旋角に対してプロットしたグラフである。図12Bは可変物体距離レンズメータを用いて物体距離−200mmの場合の累進屈折力レンズの非点収差の大きさを、眼球の回旋角に対してプロットしたグラフである。平均度数誤差、および非点収差の大きさのいずれも好適ではない結果が見て取れる。該結果は、そもそも設計時に仮定している使用条件(例えば、レンズ中心部から上方は物体距離無限、下方は物体距離約−300mm)とは異なる物体距離で観測していることに起因する。特に、レンズ上方は設計時に物体距離無限を仮定しているので、物体距離−200mmでの性能はかなり劣悪なものになってしまう。 FIG. 12A is a graph obtained by plotting the average power error of the progressive power lens with respect to the rotation angle of the eyeball when the object distance is −200 mm (Do = −5) using a variable object distance lens meter. FIG. 12B is a graph in which the magnitude of astigmatism of the progressive power lens when the object distance is −200 mm using a variable object distance lens meter is plotted with respect to the rotation angle of the eyeball. It can be seen that neither the average power error nor the magnitude of astigmatism is suitable. This result originates from observations at an object distance different from the use conditions assumed at the time of design (for example, the object distance is infinite above the center of the lens and the object distance is approximately −300 mm below). In particular, since the object distance is assumed to be infinite at the time of designing, the performance at an object distance of −200 mm is considerably deteriorated.
図13は、図11および図12に示した平均度数誤差および非点収差の大きさの実測値に基づいて上記光学特性の補間方法に従って補間処理を行った結果作成されたグラフである。図13Aが非点収差を眼球回旋角に対してプロットしたグラフ、図13Bが平均度数誤差を眼球回旋角に対してプロットしたグラフである。図13A、図13Bで示す各グラフは、レンズの各部位で想定される物体距離に対応した光学特性を反映させている。具体的には、レンズ中心部から上方では物体距離を無限(0ディオプター)に設定し、レンズ中心部から下方に向かうにつれて物体距離を連続的に変化させている。即ち鉛直方向の眼球回旋角Vyが0<Vyの範囲では、物体距離0ディオプターで一定と設定する。また、Vy<−35では、物体距離−300mm(−3.333ディオプター)で一定に設定する。さらに−35≦Vy≦0では、−3.333≦Do≦0の範囲内で直線的に変化させている。 FIG. 13 is a graph created as a result of performing an interpolation process according to the optical characteristic interpolation method based on the measured values of the average power error and the astigmatism magnitude shown in FIGS. 13A is a graph in which astigmatism is plotted with respect to the eyeball rotation angle, and FIG. 13B is a graph in which the average power error is plotted with respect to the eyeball rotation angle. Each graph shown in FIGS. 13A and 13B reflects optical characteristics corresponding to the object distance assumed in each part of the lens. Specifically, the object distance is set to infinite (0 diopter) above the center of the lens, and the object distance is continuously changed from the lens center toward the bottom. That is, when the eyeball rotation angle Vy in the vertical direction is in the range of 0 <Vy, the object distance is set to be constant at 0 diopter. Further, when Vy <−35, the object distance is set to be constant at −300 mm (−3.333 diopter). Further, when −35 ≦ Vy ≦ 0, the linear change is made within the range of −3.333 ≦ Do ≦ 0.
このように、上述した補間方法を用いることにより作成された、累進屈折力レンズの各部位における、実際の使用条件にほぼ対応する物体距離での光学特性に関するグラフ(図13A、B)は、実際の累進屈折力レンズの全部位を実際に測定した結果得られた光学性能と略同一となっている。 As described above, the graphs (FIGS. 13A and 13B) regarding the optical characteristics at the object distance substantially corresponding to the actual use conditions in each part of the progressive addition lens created by using the interpolation method described above are actually This is almost the same as the optical performance obtained as a result of actually measuring all parts of the progressive-power lens.
12 画像処理部
21 CPU
22 RAM
L 眼鏡レンズ
100 眼鏡装用シミュレーション装置
12 Image processing unit 21 CPU
22 RAM
L spectacle lens 100 spectacle wearing simulation device
Claims (11)
算出された前記非点収差を、方位角の差が90°の整数倍でない2つの非点収差成分に分解する分解処理と、
前記非点収差成分毎に前記少なくとも2カ所間を補間する補間処理と、
前記補間処理によって補間された各非点収差成分を合成することによって、非点収差の前記少なくとも2カ所以外の物体距離に対する補間値を求める合成処理と、
を含むことを特徴とする眼鏡レンズの光学特性補間方法。 A calculation process for calculating the magnitude and azimuth of astigmatism at at least two object distances;
A decomposition process for decomposing the calculated astigmatism into two astigmatism components whose difference in azimuth is not an integral multiple of 90 °;
Interpolation processing for interpolating between the at least two locations for each astigmatism component;
By combining the astigmatism components interpolated by the interpolation process, a combining process for obtaining an interpolation value for an object distance other than the at least two places of astigmatism;
A method for interpolating optical characteristics of a spectacle lens, comprising:
前記補間処理では、さらに、前記算出処理により算出された平均度数誤差と物体距離の逆数との関係を用いて、前記少なくとも2カ所間にある任意の物体距離における平均度数誤差を補間する請求項1に記載の眼鏡レンズの光学特性補間方法。2. The interpolation process further includes interpolating an average power error at an arbitrary object distance between the at least two locations using a relationship between an average power error calculated by the calculation process and an inverse of the object distance. The optical characteristic interpolation method of the spectacle lens described in 1.
前記分解処理において、前記非点収差を、以下の式(1)、(2)で表される2つの非点収差成分ASix、ASiyに分解し、
前記合成処理は、前記補間処理において補間された各非点収差成分である~ASx(d)、~ASy(d)から式(3)を用いて、任意の物体距離dにおける非点収差の量の補間値~AS(d)を求める、請求項1から請求項4の何れかに記載の眼鏡レンズの光学特性補間方法。
In the decomposition process, the astigmatism is decomposed into two astigmatism components ASix and ASyy expressed by the following equations (1) and (2):
The composition process uses the astigmatism components interpolated in the interpolation process, ~ ASx (d), ~ ASy (d), to the amount of astigmatism at an arbitrary object distance d using Equation (3). The method for interpolating optical characteristics of a spectacle lens according to any one of claims 1 to 4, wherein the interpolation value ~ AS (d) is calculated.
前記分解処理において、前記非点収差を、以下の式(1)、(2)で表される2つの非点収差成分ASix、ASiyに分解し、
前記合成処理は、前記補間処理において補間された各非点収差成分である~ASx(d)、~ASy(d)から式(4)を用いて、任意の物体距離dにおける非点収差の方位角の補間値~AX(d)を求める、請求項1から請求項4の何れかに記載の眼鏡レンズの光学特性補間方法。
In the decomposition process, the astigmatism is decomposed into two astigmatism components ASix and ASyy expressed by the following equations (1) and (2):
The composition processing uses the astigmatism components interpolated in the interpolation processing, ~ ASx (d), ~ ASy (d), to the astigmatism azimuth at an arbitrary object distance d using Equation (4). The method for interpolating optical characteristics of a spectacle lens according to any one of claims 1 to 4, wherein an angle interpolation value ~ AX (d) is obtained.
前記眼鏡レンズ装用時に体感されるボケを発生させるボケ発生手段に、請求項1から請求項7の何れかに記載の眼鏡レンズの光学特性補間方法を用いることを特徴とする眼鏡装用シミュレーション画像処理方法。 In the simulation image processing method for spectacle wearing that allows the visual information when wearing spectacle lenses to be simulated,
8. A spectacle wearing simulation image processing method using the spectacle lens optical characteristic interpolation method according to claim 1 as blur generating means for generating blur to be experienced when wearing the spectacle lens. .
眼鏡レンズ装用時に体感されるボケを発生させるボケ発生手段を有し、
前記ボケ発生手段は、請求項1から請求項7の何れかに記載の眼鏡レンズの光学特性補間方法を用いることを特徴とする眼鏡装用シミュレーション画像処理装置。 In the simulation image processing apparatus for spectacle wearing that simulates visual information when wearing spectacle lenses,
Having a blur generating means for generating blur to be experienced when wearing spectacle lenses;
The spectacle wearing simulation image processing apparatus using the spectacle lens optical characteristic interpolation method according to any one of claims 1 to 7.
前記光源または前記観測手段の共役点を、前記被検眼鏡レンズから有限距離の位置に作るステップと、
少なくとも2カ所の物体距離(そのうちの少なくとも一カ所の物体距離が前記有限距離)での前記被検眼鏡レンズの光学特性を求めるステップと、
請求項1から請求項7の何れかに記載の眼鏡レンズの光学特性補間方法を用いて、任意の物体距離の光学特性を算出するステップと、
を含むことを特徴とする眼鏡レンズの評価方法。 In a lens evaluation method for determining the optical characteristics of the eyeglass lens to be examined by causing the light flux from the light source to enter the eyeglass lens to be examined and observing the state of the light flux after passing through the eyeglass lens to be examined by an observation unit.
Creating a conjugate point of the light source or the observation means at a finite distance from the eyeglass lens to be examined;
Determining optical characteristics of the eyeglass lens at least at two object distances (at least one of which is the finite distance);
Calculating an optical characteristic of an arbitrary object distance using the optical characteristic interpolation method of the spectacle lens according to any one of claims 1 to 7;
A method for evaluating a spectacle lens, comprising:
前記光源または前記観測手段の共役点を、前記被検眼鏡レンズから有限距離の位置に設定する共役点設定手段と、
少なくとも2カ所の物体距離(そのうちの少なくとも一カ所の物体距離が前記有限距離)での前記被検眼鏡レンズの光学特性を測定する光学特性測定手段と、
請求項1から請求項7の何れかに記載の眼鏡レンズの光学特性補間方法を用いて、任意の物体距離の光学特性を算出する光学特性算出手段と、
を有することを特徴とする眼鏡レンズの評価装置。
In a lens evaluation apparatus for obtaining optical characteristics of the eyeglass lens to be examined by causing a light flux from a light source to enter the eyeglass lens to be examined and observing the state of the light flux after passing through the eyeglass lens to be examined by an observation unit.
A conjugate point setting means for setting a conjugate point of the light source or the observation means at a position at a finite distance from the eyeglass lens to be examined;
Optical characteristic measuring means for measuring optical characteristics of the eyeglass lens at least at two object distances (at least one of which is the finite distance);
Optical characteristic calculation means for calculating an optical characteristic at an arbitrary object distance using the optical characteristic interpolation method for spectacle lenses according to any one of claims 1 to 7,
An eyeglass lens evaluation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004124531A JP4846985B2 (en) | 2004-04-20 | 2004-04-20 | Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004124531A JP4846985B2 (en) | 2004-04-20 | 2004-04-20 | Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005308490A JP2005308490A (en) | 2005-11-04 |
JP4846985B2 true JP4846985B2 (en) | 2011-12-28 |
Family
ID=35437443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004124531A Expired - Fee Related JP4846985B2 (en) | 2004-04-20 | 2004-04-20 | Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4846985B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4690664B2 (en) * | 2004-05-14 | 2011-06-01 | セイコーオプティカルプロダクツ株式会社 | Optical characteristic interpolation method and lens evaluation apparatus using the method |
JP4306702B2 (en) | 2006-08-03 | 2009-08-05 | セイコーエプソン株式会社 | Glasses lens ordering system |
JP2008059548A (en) | 2006-08-04 | 2008-03-13 | Seiko Epson Corp | Lens order system, lens order method, lens order program, and recording medium for recording lens order program |
JP4609581B2 (en) * | 2008-03-26 | 2011-01-12 | セイコーエプソン株式会社 | Simulation device, simulation program, and recording medium recording simulation program |
JP5352249B2 (en) * | 2009-01-13 | 2013-11-27 | ホーヤ レンズ マニュファクチャリング フィリピン インク | Simulation device, simulation program, and recording medium recording simulation program |
DE102009005206A1 (en) * | 2009-01-20 | 2010-07-22 | Rodenstock Gmbh | Variable progressive lens design |
DE102009005214A1 (en) | 2009-01-20 | 2010-07-22 | Rodenstock Gmbh | Automatic progressive lens design modification |
JP5921533B2 (en) * | 2010-06-11 | 2016-05-24 | バック イン フォーカスBack In Focus | System, method, and storage medium storing program for displaying display for correcting visual impairment of observer |
JP5274623B2 (en) * | 2011-07-04 | 2013-08-28 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing program, and image processing method |
TWI468658B (en) * | 2011-12-21 | 2015-01-11 | Uma Technology Inc | Lens test device and method |
US9364142B2 (en) | 2012-08-20 | 2016-06-14 | Hoya Corporation | Simulation device, simulation system, simulation method and simulation program |
CN103728121B (en) * | 2013-12-30 | 2015-12-02 | 福州锐景达光电科技有限公司 | Multifunctional optical lens parameters detecting instrument and detection method thereof |
CN107534731B (en) * | 2015-04-28 | 2020-06-09 | 索尼公司 | Image processing apparatus, image processing method, and program |
JP7127333B2 (en) * | 2018-03-30 | 2022-08-30 | 株式会社ニデック | Optometry equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11125580A (en) * | 1997-10-21 | 1999-05-11 | Asahi Optical Co Ltd | Method for evaluating ophthalmic lens |
JP3738563B2 (en) * | 1998-07-08 | 2006-01-25 | セイコーエプソン株式会社 | Glasses field of view experience apparatus, glasses field of view experience method, and recording medium |
JP2000028806A (en) * | 1998-07-09 | 2000-01-28 | Sony Corp | Lens and its production |
JP3869624B2 (en) * | 2000-05-10 | 2007-01-17 | ペンタックス株式会社 | Single focus spectacle lens design method, manufacturing method, and manufacturing system |
JP4158906B2 (en) * | 2002-07-19 | 2008-10-01 | Hoya株式会社 | Optical performance display method of spectacle lens |
-
2004
- 2004-04-20 JP JP2004124531A patent/JP4846985B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005308490A (en) | 2005-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3342423B2 (en) | Eye optical system simulation device | |
US10958898B2 (en) | Image creation device, method for image creation, image creation program, method for designing eyeglass lens and method for manufacturing eyeglass lens | |
JP4846985B2 (en) | Optical characteristic interpolation method, spectacle wearing simulation image processing method, spectacle wearing simulation image processing apparatus, spectacle lens evaluation method, spectacle lens evaluation apparatus | |
EP1158338B1 (en) | Method for simulating an ocular optical system and apparatus therefor | |
JP6014038B2 (en) | Spectacle wearing simulation method, program, apparatus, spectacle lens ordering system, and spectacle lens manufacturing method | |
EP2230988B1 (en) | Method of simulating blur in digitally processed images | |
US5677750A (en) | Apparatus for and method of simulating ocular optical system | |
EP3270098B2 (en) | Measurement system for eyeglasses-wearing parameter, measurement program, measurement method therefor, and manufacturing method for eyeglasses lens | |
EP2341388A1 (en) | Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses | |
KR20100050052A (en) | Virtual glasses wearing method | |
JPWO2014030403A1 (en) | Simulation device, simulation system, simulation method, and simulation program | |
KR100514241B1 (en) | Method for evaluating binocular performance of spectacle lenses, method for displaying said performance and apparatus therefor | |
JP3919097B2 (en) | Binocular visual performance display method and apparatus for spectacle lens | |
CN113613546B (en) | Apparatus and method for evaluating performance of visual device for visual task | |
Lian et al. | Ray tracing 3D spectral scenes through human optics models | |
Loos et al. | Using wavefront tracing for the visualization and optimization of progressive lenses | |
JP2012513604A (en) | Method and apparatus for simulating the optical effect of an optical lens | |
JP3825654B2 (en) | Ophthalmic optical system simulation method and apparatus | |
JP4477909B2 (en) | Glasses wearing simulation system and image generation method | |
JP6368907B2 (en) | Lens optical performance evaluation method, design method, and lens optical performance display method | |
JP2002014006A (en) | Indication method and device for spectacles lens performance | |
Mardanbegi et al. | An investigation of the distribution of gaze estimation errors in head mounted gaze trackers using polynomial functions | |
JP3738563B2 (en) | Glasses field of view experience apparatus, glasses field of view experience method, and recording medium | |
WO2019138515A1 (en) | Image forming device, eyeglass lens selection system, image forming method, and program | |
Vu et al. | Highly parallelized rendering of the retinal image through a computer-simulated human eye for the design of virtual reality head-mounted displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070315 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080611 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100702 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101201 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20101201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111013 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141021 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4846985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |