JP2017184789A - Spectacle prescription assisting device and spectacle prescription assisting program - Google Patents

Spectacle prescription assisting device and spectacle prescription assisting program Download PDF

Info

Publication number
JP2017184789A
JP2017184789A JP2016073732A JP2016073732A JP2017184789A JP 2017184789 A JP2017184789 A JP 2017184789A JP 2016073732 A JP2016073732 A JP 2016073732A JP 2016073732 A JP2016073732 A JP 2016073732A JP 2017184789 A JP2017184789 A JP 2017184789A
Authority
JP
Japan
Prior art keywords
eye
simulation image
examined
lens
spectacle lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016073732A
Other languages
Japanese (ja)
Other versions
JP2017184789A5 (en
JP6693240B2 (en
Inventor
一成 清水
Kazunari Shimizu
一成 清水
城久 小林
Shirohisa Kobayashi
城久 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2016073732A priority Critical patent/JP6693240B2/en
Priority to US15/475,854 priority patent/US10085631B2/en
Publication of JP2017184789A publication Critical patent/JP2017184789A/en
Publication of JP2017184789A5 publication Critical patent/JP2017184789A5/en
Application granted granted Critical
Publication of JP6693240B2 publication Critical patent/JP6693240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a spectacle prescription assisting device and a spectacle prescription assisting program capable of more appropriately evaluating the visibility of an eye to be examined when a spectacle lens is put on.SOLUTION: A CPU 30 of a spectacle prescription assisting device 1 acquires a simulation image which is a simulation image generated based on first distribution data which is measurement data on an eye to be examined by a wavefront sensor 200, and is related to the distribution of a refraction error of the eye to be examined, and power information in a part of a spectacle lens for correcting the refraction error of the eye to be examined, and in which a visual target image formed on the ocular fundus in the eye to be examined on which the spectacle lens is put is simulated. The CPU 30 causes a monitor 50 to display position information indicating a position corresponding to the simulation image in the spectacle lens together with the simulation image.SELECTED DRAWING: Figure 5

Description

本開示は、眼鏡装用時における被検眼の見え方を評価して、眼鏡の処方を補助するための眼鏡処方補助装置および眼鏡処方補助プログラムに関する。   The present disclosure relates to an eyeglass prescription assisting apparatus and an eyeglass prescription assisting program for assisting prescription of eyeglasses by evaluating the appearance of an eye to be examined when wearing eyeglasses.

被検眼における屈折誤差の分布,および,収差の分布,等を測定する検眼装置が知られている。このような装置による測定結果は、被検眼の見え方を評価するために利用される場合がある。   There is known an optometry apparatus that measures the distribution of refraction errors, the distribution of aberrations, and the like in the eye to be examined. The measurement result obtained by such an apparatus may be used for evaluating the appearance of the eye to be examined.

例えば、本出願人による特許文献1では、被検眼の屈折誤差を矯正するための眼鏡レンズが装用された状態で、被検眼において視標像がどのように結像するかを示すためのシミュレーション画像を、屈折力分布の測定結果の他、眼鏡レンズの度数を考慮して生成する手法が提案されている。   For example, in Patent Document 1 by the present applicant, a simulation image for showing how a visual target image is formed in the eye to be examined while wearing a spectacle lens for correcting a refraction error of the eye to be examined. In addition to the measurement result of the refractive power distribution, a method has been proposed in which the power of the spectacle lens is taken into consideration.

特開2015−144730号公報Japanese Patent Laying-Open No. 2015-144730

例えば、眼鏡レンズが多焦点レンズ等である場合、眼鏡レンズにおいて視線が通過する位置、眼鏡レンズと被検眼との3次元的な位置関係等によって、視標像の見え方は変わり得るが、特許文献1においては、これらの観点について、必ずしも十分検討されてはいない。   For example, when the spectacle lens is a multifocal lens or the like, the appearance of the visual target image may vary depending on the position where the line of sight passes through the spectacle lens, the three-dimensional positional relationship between the spectacle lens and the eye to be examined, etc. In literature 1, these viewpoints are not necessarily fully examined.

本開示は、従来技術の問題点のうち少なくとも1つに基づいてなされたものであり、眼鏡レンズ装用時における被検眼の見え方を示すシミュレーション画像を、より効果的に表示させる眼鏡処方補助装置,および,眼鏡処方補助プログラムの提供を目的とする。   The present disclosure has been made based on at least one of the problems of the prior art, and a glasses prescription assisting device that more effectively displays a simulation image showing how the eye to be examined looks when wearing eyeglass lenses, The purpose is to provide an eyeglass prescription assistance program.

本開示の第1態様に係る眼鏡処方補助装置は、波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと,被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報と,に基づいて生成されるシミュレーション画像であって、眼鏡レンズが装用された被検眼において眼底で結像される視標像がシミュレーションされたシミュレーション画像を取得するシミュレーション画像取得手段と、前記シミュレーション画像取得手段で取得されるシミュレーション画像と共に、前記眼鏡レンズにおいて前記シミュレーション画像に対応する前記一部の位置を示す位置情報を、モニタに表示させる表示制御手段と、を備える。   An eyeglass prescription assisting device according to a first aspect of the present disclosure is measurement data of an eye to be examined by a wavefront sensor, and is used to correct the first distribution data regarding the refractive error distribution of the eye to be examined and the refraction error of the eye to be examined. A simulation image that is generated based on the frequency information in a part of the spectacle lens and obtains a simulation image in which a target image formed on the fundus in the eye to be examined wearing the spectacle lens is simulated Image acquisition means, and display control means for displaying, on the monitor, position information indicating the position of the part of the spectacle lens corresponding to the simulation image, together with the simulation image acquired by the simulation image acquisition means. .

本開示の第2態様に係る眼鏡処方補助装置は、波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと、被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報である部分度数情報と、前記眼鏡レンズと被検眼との位置関係に関する情報である位置関係情報と、を取得する取得手段と、被検眼の眼底において結像される視標像のシミュレーション画像であって、眼鏡レンズが装用された状態の被検眼に関するシミュレーション画像を、前記第1分布データと、前記部分度数情報と、前記位置関係情報と、に基づいて取得するシミュレーション画像取得手段と、を備える。   An eyeglass prescription assisting device according to a second aspect of the present disclosure is measurement data of an eye to be examined by a wavefront sensor, and is used to correct the first distribution data regarding the refractive error distribution of the eye to be examined and the refraction error of the eye to be examined. An acquisition means for acquiring partial frequency information that is frequency information in a part of the spectacle lens and positional relationship information that is information regarding a positional relationship between the spectacle lens and the eye to be examined, and imaging on the fundus of the eye to be examined A simulation image that is a simulation image of a target image, and that acquires a simulation image relating to an eye to be examined in a state where a spectacle lens is worn based on the first distribution data, the partial frequency information, and the positional relationship information. Image acquisition means.

本開示の第3態様に係る眼鏡処方補助プログラムは、コンピュータのプロセッサによって実行されることにより、波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと,被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報と,に基づいて生成されるシミュレーション画像であって、眼鏡レンズが装用された被検眼において眼底で結像される視標像がシミュレーションされたシミュレーション画像を取得するシミュレーション画像取得ステップと、前記シミュレーション画像取得ステップで取得されるシミュレーション画像と共に、前記眼鏡レンズにおいて前記シミュレーション画像に対応する前記一部の位置を示す位置情報を、モニタに表示させる表示制御ステップと、前記コンピュータに実行させる。   The eyeglass prescription auxiliary program according to the third aspect of the present disclosure is executed by a processor of a computer, and is measurement data of an eye to be examined by a wavefront sensor, the first distribution data relating to the refractive error distribution of the eye to be examined, A simulation image generated based on frequency information in a part of a spectacle lens for correcting a refraction error of the eye to be examined, and a target image formed on the fundus in the eye to be examined wearing the spectacle lens A simulation image acquisition step of acquiring a simulation image obtained by simulating, and a simulation image acquired in the simulation image acquisition step together with position information indicating the position of the part corresponding to the simulation image in the spectacle lens. A display control step to be displayed, and To be executed by a computer.

本開示の第4態様に係る眼鏡処方補助プログラムは、コンピュータのプロセッサによって実行されることにより、波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと、被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報である部分度数情報と、前記眼鏡レンズと被検眼との位置関係に関する情報である位置関係情報と、を取得する取得ステップと、被検眼の眼底において結像される視標像のシミュレーション画像であって、眼鏡レンズが装用された状態の被検眼に関するシミュレーション画像を、前記第1分布データと、前記部分度数情報と、前記位置関係情報と、に基づいて取得するシミュレーション画像取得ステップと、を前記コンピュータに実行させる。   The eyeglass prescription assist program according to the fourth aspect of the present disclosure is executed by a computer processor, and is measurement data of the eye to be examined by the wavefront sensor, the first distribution data relating to the distribution of the refractive error of the eye to be examined, An acquisition step of acquiring partial power information that is power information in a part of the spectacle lens for correcting a refraction error of the eye to be examined, and positional information that is information on a positional relation between the spectacle lens and the eye to be examined; A simulation image of a target image formed on the fundus of the eye to be examined, the simulation image relating to the eye to be examined in a state where a spectacle lens is worn, the first distribution data, the partial frequency information, and the position The computer is caused to execute a simulation image acquisition step acquired based on the relationship information.

本開示は、眼鏡レンズ装用時における被検眼の見え方を、より適正に評価できるという効果を奏する。   The present disclosure has an effect that it is possible to more appropriately evaluate the appearance of the eye to be examined when the spectacle lens is worn.

本開示に係る検眼システムの概要を示した模式図である。It is the model which showed the outline | summary of the optometry system which concerns on this indication. 実施形態に係る眼鏡処方補助装置の概略構成を示した模式図である。It is the schematic diagram which showed schematic structure of the spectacles prescription assistance apparatus which concerns on embodiment. 眼鏡処方補助装置における動作の流れを示した図である。It is the figure which showed the flow of operation | movement in the spectacles prescription assistance apparatus. 矯正レンズ,及び,被検眼のそれぞれの屈折力分布に関するデータの抽出点を示した図である。It is the figure which showed the extraction point of the data regarding each refractive power distribution of a correction lens and an eye to be examined. シミュレーション画像の第1表示例を示した図である。It is the figure which showed the 1st display example of the simulation image. シミュレーション画像の第2表示例であって、視線の遷移と連動した見え方の変化を示す場合の表示例を示している。It is the 2nd display example of a simulation image, Comprising: The example of a display in the case of showing the change of the appearance linked with the transition of a gaze is shown. シミュレーションにおける視標の呈示距離に応じて設定される視線通過領域の位置を示す表である。It is a table | surface which shows the position of the gaze passage area | region set according to the presentation distance of the target in simulation. シミュレーションにおける視標の呈示距離に応じて選択される第1分布データが、どの程度の調節力を使用して得られたデータであるかを示す表である。It is a table | surface which shows how much adjustment power is used for the 1st distribution data selected according to the presentation distance of the target in simulation. シミュレーション画像の第2表示例を示した図であって、視標の呈示距離が異なる複数のシミュレーション画像を一覧表示する場合の表示例を示している。It is the figure which showed the 2nd example of a display of a simulation image, Comprising: The example of a display in the case of displaying a list of the several simulation image from which the presentation distance of a target differs is shown. シミュレーション画像の第2表示例を示した図であって、シミュレーションの条件を変更するために利用されるグラフィックとの表示例を示す図である。It is the figure which showed the 2nd example of a display of a simulation image, Comprising: It is a figure which shows the example of a display with the graphic utilized in order to change the conditions of simulation.

以下、本開示に係る眼鏡処方補助装置,および,眼鏡処方補助プログラムを、実施形態に基づいて説明する。眼鏡処方補助装置1,および,眼鏡処方補助プログラムは、眼鏡レンズ装用時における被検眼の見え方を評価するための情報を得るために利用される。例えば、被検者がこれまで装用していた眼鏡レンズ(以下、「旧レンズ」と称す)を装用した状態での見え方が評価できれば、眼鏡店または眼科医院(以下、まとめて、「眼鏡店等」と称す)において、被検者に対し眼鏡レンズの交換を勧めるか否かを、検者が容易に判断できるようになる。また、例えば、様々な既存の眼鏡レンズを装用したときの見え方を評価できれば、被検者に対して新たに処方する眼鏡レンズ(以下、「新レンズ」と称す)を、容易に選定できるようになる。   Hereinafter, an eyeglass prescription assisting apparatus and an eyeglass prescription assisting program according to the present disclosure will be described based on embodiments. The spectacle prescription assisting device 1 and the spectacle prescription assisting program are used to obtain information for evaluating the appearance of the eye to be examined when the spectacle lens is worn. For example, if the appearance of a subject wearing a spectacle lens (hereinafter referred to as an “old lens”) can be evaluated, a spectacle store or an ophthalmologist (hereinafter collectively referred to as “spectacle store”). In this case, the examiner can easily determine whether or not the subject is recommended to replace the spectacle lens. Further, for example, if the appearance when various existing spectacle lenses are worn can be evaluated, a spectacle lens to be newly prescribed for the subject (hereinafter referred to as “new lens”) can be easily selected. become.

<システムの概要>
はじめに、図1を参照し、実施形態に係る眼鏡処方補助装置(以下、「本装置」と称する)1の概要を説明する。本装置1は、コンピュータであり、そのプロセッサにおいて、本実施形態に係る眼鏡処方補助プログラムが実行される。
<System overview>
First, an outline of an eyeglass prescription assisting apparatus (hereinafter referred to as “this apparatus”) 1 according to the embodiment will be described with reference to FIG. The apparatus 1 is a computer, and a spectacle prescription assisting program according to the present embodiment is executed by the processor.

本装置1は、被検眼の屈折力分布に関するデータ(本実施形態における「第1分布データ」)と、眼鏡レンズの屈折力分布に関するデータ(本実施形態における「第2分布データ」)と、を取得し、これらのデータを処理する。ここで、被検眼の屈折誤差の分布に関するデータは、波面センサによる被検眼の測定結果として得られる。また、眼鏡レンズの屈折力分布に関するデータは、レンズメータによる眼鏡レンズの測定結果として得られてもよい。但し、眼鏡レンズの屈折力分布に関するデータは、必ずしも測定結果(測定値)である必要はなく、眼鏡レンズの設計値であってもよい。設計値は、例えば、眼鏡レンズの製造メーカー(いわゆるレンズメーカー)から提供される。設計値は、本装置1がアクセス可能なデータベースや、本装置1が持つメモリ31(図2参照)に予め記憶されてもよいし、都度、本装置1に入力されてもよい。   The apparatus 1 includes data relating to the refractive power distribution of the eye to be examined (“first distribution data” in the present embodiment) and data relating to the refractive power distribution of the spectacle lens (“second distribution data” in the present embodiment). Acquire and process these data. Here, the data relating to the distribution of the refraction error of the eye to be examined is obtained as a measurement result of the eye to be examined by the wavefront sensor. Moreover, the data regarding the refractive power distribution of the spectacle lens may be obtained as a measurement result of the spectacle lens by a lens meter. However, the data regarding the refractive power distribution of the spectacle lens does not necessarily need to be a measurement result (measurement value), and may be a design value of the spectacle lens. The design value is provided from, for example, a spectacle lens manufacturer (so-called lens manufacturer). The design value may be stored in advance in a database accessible by the apparatus 1 or a memory 31 (see FIG. 2) of the apparatus 1 or may be input to the apparatus 1 each time.

本装置1は、波面センサ、および、レンズメータの少なくとも一方と、一体(同一筐体)の装置であってもよいし、いずれとも別体(例えば、別筐体)の装置であってもよい。一体の装置である場合、本装置1が、検出器からの信号を処理することで、被検眼の屈折誤差の分布に関するデータ、または、眼鏡レンズの屈折力分布に関するデータを導出するものであってもよい。また、本装置1が、波面センサ、および、レンズメータのいずれとも別体である場合、本装置1は、例えば、汎用のコンピュータ(例えば、PC、および、タブレット等)であってもよい。勿論、本装置1は、眼鏡店等での利用が想定される他の装置であってもよいし、眼鏡店等に置かれたクライアントコンピュータとLANまたはWAN等のネットワークで接続される装置であってもよい。後者の装置の典型例としては、サーバーコンピュータが挙げられる。この場合、サーバーコンピュータは、被検眼Eの屈折誤差の分布に関するデータを1以上記憶する。次いで、被検眼Eの屈折誤差の分布に関するデータと、予め記憶されている,或いは,別途クライアントコンピュータから受け取った,眼鏡レンズの屈折力分布に関するデータとを、眼鏡処方補助プログラムに従って処理する。そして、処理結果が、クライアントコンピュータに対して送信される。   The device 1 may be an integrated (same housing) device with at least one of the wavefront sensor and the lens meter, or may be a separate device (for example, a separate housing). . In the case of an integrated device, the device 1 processes the signal from the detector to derive data relating to the refractive error distribution of the eye to be examined or data relating to the refractive power distribution of the spectacle lens. Also good. Further, when the device 1 is separate from both the wavefront sensor and the lens meter, the device 1 may be a general-purpose computer (for example, a PC, a tablet, or the like), for example. Of course, the present apparatus 1 may be another apparatus that is supposed to be used in a spectacle store or the like, or a device connected to a client computer placed in a spectacle store or the like via a network such as a LAN or WAN. May be. A typical example of the latter apparatus is a server computer. In this case, the server computer stores one or more data related to the distribution of the refractive error of the eye E. Next, the data regarding the refractive error distribution of the eye E and the data regarding the refractive power distribution of the spectacle lens stored in advance or separately received from the client computer are processed according to the spectacle prescription assistance program. Then, the processing result is transmitted to the client computer.

なお、被検眼の屈折誤差の分布に関するデータ、および、眼鏡レンズの屈折力分布に関するデータ等の各種データが、他の装置から本装置1へ受け渡しされる場合、受け渡しはオンラインで行われてもよいし、オフラインで行われてもよい。オフラインの場合、例えば、リムーバブルディスク(例えば、USBメモリ等),RFID,および,バーコード等のいずれかのメディアを介して、受け渡しが行われてもよい。   In addition, when various data such as data relating to the refractive error distribution of the eye to be examined and data relating to the refractive power distribution of the spectacle lens are delivered from the other device to the present device 1, the delivery may be performed online. However, it may be performed offline. In the case of offline, delivery may be performed via any medium such as a removable disk (for example, USB memory), RFID, and barcode.

まず、本実施形態の説明においては、本装置1は波面センサと一体化された装置であるものとする。   First, in the description of this embodiment, it is assumed that the device 1 is a device integrated with a wavefront sensor.

本実施形態では、本装置1によって、被検眼Eの光学特性が測定され、測定結果を示す測定データが、本装置1の記憶部(メモリ31、図2参照)に記憶される。本装置1では、少なくとも被検眼Eの屈折誤差の分布に関して測定が行われる。このため、測定データには、被検眼Eの屈折誤差の分布に関するデータ(以下、「第1分布データ」と称する)が少なくとも含まれる。   In the present embodiment, the apparatus 1 measures the optical characteristics of the eye E, and the measurement data indicating the measurement result is stored in the storage unit (the memory 31, see FIG. 2) of the apparatus 1. In the apparatus 1, at least the refraction error distribution of the eye E is measured. For this reason, the measurement data includes at least data related to the refraction error distribution of the eye E (hereinafter referred to as “first distribution data”).

第1分布データは、瞳孔内の各位置と対応する眼の屈折特性を特定するデータである。例えば、第1分布データは、屈折誤差,および,収差のうち、いずれかの形式で表現されるデータであってもよいし、これら以外の形式で表現されるデータであってもよい。なお、第1分布データは、被検眼Eの調節力が介入しない状態で測定されたデータであってもよいし、調節力が介入した状態で測定されたデータであってもよい。また、調節力の使用割合をそれぞれで異ならせて、複数の第1分布データが取得されてもよい。   The first distribution data is data for specifying the refractive characteristics of the eye corresponding to each position in the pupil. For example, the first distribution data may be data expressed in any form of refraction error and aberration, or may be data expressed in a form other than these. The first distribution data may be data measured in a state where the accommodation force of the eye E is not intervening, or may be data measured in a state where the accommodation force is intervening. Further, the plurality of first distribution data may be acquired by changing the usage ratio of the adjustment force.

図1に示すように、本装置1は、他の装置と、オンラインまたはオフラインで、データを送受信可能であってもよい。他の装置としては、例えば、眼鏡店等において、眼または眼鏡レンズに関する測定、あるいは、眼鏡レンズの加工に利用されるいずれかの装置であってもよい。図1には、他の装置の例として、レンズメータ200と、眼鏡装用パラメータ測定装置300と、を示す。但し、必ずしもこれに限られるものではなく、本装置1は、更に、オートレフラクター、フレームトレーサー、および、レンズエッジャー等の装置との間で、データの送受信が可能であってもよい。   As shown in FIG. 1, the present apparatus 1 may be capable of transmitting / receiving data to / from other apparatuses online or offline. As another device, for example, any device used for measurement of an eye or a spectacle lens or processing of a spectacle lens in a spectacle store or the like may be used. FIG. 1 shows a lens meter 200 and a spectacle wearing parameter measurement device 300 as examples of other devices. However, the present apparatus 1 is not necessarily limited to this, and the apparatus 1 may further be capable of transmitting and receiving data to and from apparatuses such as an autorefractor, a frame tracer, and a lens edger.

レンズメータ200は、眼鏡レンズの広範囲(例えば、全範囲でもよい。)における屈折力分布の測定データを得る。レンズメータ200の詳細構成は、例えば、本出願人による特開2006−275971号公報等を参照されたい。測定データは、本装置1の記憶部(メモリ31,図2参照)に格納される。レンズメータ200で得られる測定データは、本装置1の記憶部(メモリ31、図2参照)に転送され、記憶されてもよい。本実施形態では、レンズメータ200によって得られる測定データのうち、眼鏡レンズの一部の領域についての測定データが第2分布データとして、本装置1に取得される。   The lens meter 200 obtains measurement data of refractive power distribution in a wide range (for example, the entire range) of the spectacle lens. For the detailed configuration of the lens meter 200, see, for example, Japanese Patent Application Laid-Open No. 2006-275971 by the present applicant. The measurement data is stored in the storage unit (memory 31, see FIG. 2) of the apparatus 1. Measurement data obtained by the lens meter 200 may be transferred to and stored in the storage unit (memory 31, see FIG. 2) of the apparatus 1. In the present embodiment, among the measurement data obtained by the lens meter 200, the measurement data for a partial region of the spectacle lens is acquired by the present apparatus 1 as the second distribution data.

第2分布データは、一部の領域における複数位置での度数(S:球面度数,C:柱面度数,A:乱視軸角度)の分布データであってもよい。また、屈折力(パワー)の分布データであってもよい。第2分布データには、レンズ中心に対する距離が互いに異なる3つ以上の抽出ポイントでの屈折力に関する情報(屈折力、度数、および、収差等)が少なくとも含まれる。第2分布データは、第1分布データと同様、収差の形式で表現されるデータであってもよいし、これら以外の形式で表現されるデータであってもよい。   The second distribution data may be distribution data of frequencies (S: spherical power, C: columnar power, A: astigmatic axis angle) at a plurality of positions in a partial region. Further, it may be refractive power (power) distribution data. The second distribution data includes at least information regarding refractive power (refractive power, power, aberration, etc.) at three or more extraction points having different distances from the lens center. Similar to the first distribution data, the second distribution data may be data expressed in an aberration format, or may be data expressed in a format other than these.

本実施形態におけるレンズメータ200は、例えば、次のような構成を持つ。すなわち、眼鏡レンズに測定光を投光する投光光学系と、眼鏡レンズを通過した測定光を複数の指標像からなるパターン像として二次元受光素子で撮像する撮像光学系と、を持つ。撮像された画像が処理された結果として、第2分布データが導出される。なお、二次元受光素子で得られる画像から第2分布データを導出する処理は、例えば、レンズメータ200本体の演算処理装置(例えば、CPU)が行ってもよいし、本装置1のCPU30(図2参照)が行ってもよい。いずれの場合においても、処理の結果として得られる第2分布データは、本装置1に取得(メモリ31に記憶)される。   The lens meter 200 in this embodiment has the following configuration, for example. That is, a projection optical system that projects measurement light onto a spectacle lens and an imaging optical system that captures the measurement light that has passed through the spectacle lens with a two-dimensional light receiving element as a pattern image composed of a plurality of index images. As a result of processing the captured image, second distribution data is derived. Note that the processing for deriving the second distribution data from the image obtained by the two-dimensional light receiving element may be performed by, for example, an arithmetic processing device (for example, CPU) of the lens meter 200 main body, or the CPU 30 (see FIG. 2). In any case, the second distribution data obtained as a result of the processing is acquired by the apparatus 1 (stored in the memory 31).

眼鏡装用パラメータ測定装置300(以下、「アイポジションメータ」と称す)は、眼鏡レンズと被検眼Eとの相対的な位置関係に関する測定データを得るために利用される。測定データとしては、例えば、眼鏡レンズ(眼鏡フレーム)に対する眼の位置(アイポイント)に限られるものではなく、被検眼Eと眼鏡レンズとの距離(例えば、角膜頂点間距離VD等)、眼鏡レンズに対する視線の向き(例えば、視線方向と、眼鏡フレームのそり角に基づいて導出)、および、眼鏡レンズに対する視線の通過位置,等が含まれてもよい。また、測定データは、遠方視,近方視,および,それらの中間,の1つ以上(好ましくは、2つ以上)についてが得られてもよい。   The spectacle wearing parameter measurement device 300 (hereinafter referred to as “eye position meter”) is used to obtain measurement data relating to the relative positional relationship between the spectacle lens and the eye E. The measurement data is not limited to the eye position (eye point) with respect to the spectacle lens (spectacle frame), for example. The distance between the eye E and the spectacle lens (for example, the corneal apex distance VD), the spectacle lens The direction of the line of sight with respect to (for example, derived based on the line-of-sight direction and the warp angle of the spectacle frame), the passing position of the line of sight with respect to the spectacle lens, and the like may be included. Further, the measurement data may be obtained for one or more (preferably two or more) of far vision, near vision, and their middle.

本実施形態におけるアイポジションメータ300は、例えば、次のような構成を持つ。すなわち、眼鏡フレームを装用した状態の被検者の顔を撮影するカメラ(撮影装置)と、カメラで得られる撮影画像から眼鏡フレームに対する眼の相対位置を測定する演算処理装置(例えば、CPU)と、を持つ。なお、図1に示すアイポジションメータ300は、本装置1と別体であるが、これに限定されるものではない。例えば、本装置1とアイポジションメータ300とが一体であってもよい(換言すれば、同一筐体であってもよい)。一体の場合、本装置1のCPU30(図2参照)によって、アイポジションに関する測定データが演算される。本実施形態において、アイポジションに関する測定データは、本装置1の記憶装置(メモリ31、図2参照)に記憶される。   The eye position meter 300 in the present embodiment has the following configuration, for example. That is, a camera (imaging device) that captures the face of the subject wearing the spectacle frame, and an arithmetic processing device (for example, CPU) that measures the relative position of the eye with respect to the spectacle frame from a captured image obtained by the camera; ,have. The eye position meter 300 shown in FIG. 1 is separate from the apparatus 1, but is not limited to this. For example, the apparatus 1 and the eye position meter 300 may be integrated (in other words, the same housing may be used). In the case of integration, measurement data relating to the eye position is calculated by the CPU 30 (see FIG. 2) of the apparatus 1. In the present embodiment, measurement data relating to the eye position is stored in the storage device (memory 31, see FIG. 2) of the device 1.

<本装置の概略構成>
次に、図2を参照して、本実施形態における本装置1の概略構成を説明する。図2に示すように、本装置1は、少なくとも、CPU(演算処理部の一例)30,および,メモリ(記憶装置)31を含む。CPU30は、本装置1における主要な動作を司るプロセッサである。
<Schematic configuration of this device>
Next, a schematic configuration of the apparatus 1 in the present embodiment will be described with reference to FIG. As shown in FIG. 2, the apparatus 1 includes at least a CPU (an example of an arithmetic processing unit) 30 and a memory (storage device) 31. The CPU 30 is a processor that controls main operations in the apparatus 1.

メモリ31は、各種情報を記憶する記憶装置であり、少なくとも、一時的にデータを記憶する揮発性の記憶媒体(例えば、レジスタ,キャッシュ,及び,RAM等)と、制御プログラムおよび固定データ等を記憶する不揮発性の記憶媒体(例えば、ROM,HDD,フラッシュメモリ等)と、が含まれる。本装置1では、このうち、不揮発性の記憶媒体に、眼鏡処方補助プログラムが記憶されていてもよい。不揮発性の記憶媒体は、繰り返し書き換え可能な記憶媒体を含んでいてもよい。この場合、書き換え可能な不揮発性の記憶媒体に、眼鏡処方補助プログラムの実行結果として得られたデータが、記憶されてもよい。   The memory 31 is a storage device that stores various information, and stores at least a volatile storage medium (for example, a register, a cache, and a RAM) that temporarily stores data, a control program, fixed data, and the like. Non-volatile storage media (for example, ROM, HDD, flash memory, etc.). In the apparatus 1, the glasses prescription assistance program may be stored in a nonvolatile storage medium. The nonvolatile storage medium may include a storage medium that can be repeatedly rewritten. In this case, data obtained as an execution result of the spectacle prescription assisting program may be stored in a rewritable nonvolatile storage medium.

なお、本開示の眼鏡処方補助プログラムは、必ずしも本装置(コンピュータ)1のメモリ31に記憶されている必要はなく、次のような態様であってもよい。例えば、本装置1に対して外付けの記憶装置35に眼鏡処方補助プログラムが記憶されており、該プログラムを本装置1のプロセッサによって記憶装置35から読み出され、処理が実行される態様であってもよい。   Note that the eyeglass prescription assistance program of the present disclosure is not necessarily stored in the memory 31 of the apparatus (computer) 1 and may be in the following manner. For example, an eyeglass prescription assistance program is stored in an external storage device 35 for the device 1, and the program is read from the storage device 35 by the processor of the device 1 and processing is executed. May be.

本装置1は、CPU30,および,メモリ31の他、例えば、外付け記憶装置35,操作部40,および,モニタ50等を有してもよい。各部材は、データバス等を通じて相互に接続される。   In addition to the CPU 30 and the memory 31, the present apparatus 1 may include, for example, an external storage device 35, an operation unit 40, a monitor 50, and the like. Each member is connected to each other through a data bus or the like.

操作部40は、検者が操作を入力するための入力インターフェイスである。また、モニタ50には、被検眼Eに関する各種情報が、テキストおよびグラフィック等として表示される。本実施形態において、モニタ50の表示制御は、CPU30によって行われる。つまり、本実施形態では、CPU30が、表示制御部を兼用する。   The operation unit 40 is an input interface for an examiner to input an operation. In addition, various information related to the eye E is displayed on the monitor 50 as text and graphics. In the present embodiment, display control of the monitor 50 is performed by the CPU 30. That is, in the present embodiment, the CPU 30 also serves as a display control unit.

本実施形態では、測定ユニット100が、本装置1に含まれる。測定ユニット100は、少なくとも、屈折力測定光学系10(眼収差測定光学系ともいう、以下、単に、「測定光学系」と省略する)を持つ。測定光学系10は、検出器22を有する。そして、測定光学系10は、被検眼の瞳孔内にスポット状の測定光を投光すると共に、検出器22によって、瞳孔から取り出される測定光の眼底反射光を検出する。   In the present embodiment, the measurement unit 100 is included in the apparatus 1. The measurement unit 100 includes at least a refractive power measurement optical system 10 (also referred to as an ocular aberration measurement optical system, hereinafter simply referred to as “measurement optical system”). The measurement optical system 10 has a detector 22. The measurement optical system 10 projects spot-like measurement light into the pupil of the eye to be examined, and detects the fundus reflection light of the measurement light extracted from the pupil by the detector 22.

検出器22から出力される検出信号は、CPU30によって処理される。その結果として、本装置1は、波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関するデータ(以下、「第1分布データ」と称する)を取得(メモリ31に記憶)する。   The detection signal output from the detector 22 is processed by the CPU 30. As a result, the present apparatus 1 acquires measurement data of the eye to be inspected by the wavefront sensor, and data (hereinafter referred to as “first distribution data”) relating to the refractive error distribution of the eye to be inspected (stored in the memory 31). To do.

なお、図2は、測定光学系10として、シャックハルトマンセンサ方式の波面センサを例示する(詳細は後述する)が、必ずしもこれに限られるものではない。即ち、測定光学系10は、被検眼の屈折誤差の分布に関するデータを測定するために利用される他の光学系であってもよい。例えば、タルボット式波面センサ(詳しくは、本出願人による特開2006−149871号公報参照)等が利用されてもよい。また、位相差方式の波面センサであってもよい(即ち、眼底にスリット光束を投影し、その反射光束を受光素子によって検出したときの位相差信号を出力する構成。例えば、本出願人による特開平10−108837号公報等を参照)。位相差方式では、被検眼Eの第1分布データが、位相差信号の処理結果として得られる。   2 illustrates a Shack-Hartmann sensor type wavefront sensor as the measurement optical system 10 (details will be described later), but the measurement optical system 10 is not necessarily limited thereto. In other words, the measurement optical system 10 may be another optical system that is used to measure data related to the distribution of the refractive error of the eye to be examined. For example, a Talbot wavefront sensor (for details, see Japanese Patent Application Laid-Open No. 2006-149871 by the present applicant) may be used. Alternatively, a phase difference type wavefront sensor may be used (that is, a configuration in which a slit light beam is projected onto the fundus and a reflected light beam is detected by a light receiving element, and a phase difference signal is output. (See Kaihei 10-10883). In the phase difference method, the first distribution data of the eye E is obtained as a processing result of the phase difference signal.

ここで、図2に示す測定光学系10の詳細構成を説明する。測定光学系10は、投光光学系10aと、受光光学系10bと、を含む。投光光学系10aは、例えば、測定光源からスポット状の光束を被検眼眼底に投光する。受光光学系10bは、例えば、眼底で反射され被検眼から射出された光束を複数に分割して二次元受光素子(検出器の一例)22に受光させる。   Here, the detailed configuration of the measurement optical system 10 shown in FIG. 2 will be described. The measurement optical system 10 includes a light projecting optical system 10a and a light receiving optical system 10b. For example, the light projecting optical system 10a projects a spot-like light beam from a measurement light source onto the eye fundus. For example, the light receiving optical system 10b divides a light beam reflected from the fundus and emitted from the eye to be measured into a plurality of light beams and causes the two-dimensional light receiving element (an example of a detector) 22 to receive the light.

より具体的には、投光光学系10aは、光源(測定光源)11から順に、リレーレンズ12、対物レンズ14を有する。光源11は、眼底と共役な位置に配置される。受光光学系10bは、被検眼Eの前方から順に、対物レンズ14、ハーフミラー13、リレーレンズ16、全反射ミラー17、コリメータレンズ19、マイクロレンズアレイ20、二次元受光素子22を有する。受光光学系10bは、被検眼の瞳孔とマイクロレンズアレイ20とが光学的に略共役な関係となるように構成されている。マイクロレンズアレイ20は、測定光軸と直交する面に二次元的に配置された微小レンズと遮光板からなり眼底反射光を複数の光束に分割する。   More specifically, the light projecting optical system 10 a includes a relay lens 12 and an objective lens 14 in order from the light source (measurement light source) 11. The light source 11 is disposed at a position conjugate with the fundus. The light receiving optical system 10b includes an objective lens 14, a half mirror 13, a relay lens 16, a total reflection mirror 17, a collimator lens 19, a micro lens array 20, and a two-dimensional light receiving element 22 in order from the front of the eye E to be examined. The light receiving optical system 10b is configured so that the pupil of the eye to be examined and the microlens array 20 are in an optically conjugate relationship. The microlens array 20 includes a microlens and a light shielding plate that are two-dimensionally arranged on a plane orthogonal to the measurement optical axis, and divides the fundus reflection light into a plurality of light beams.

測定光源11から出射された光束は、リレーレンズ12、対物レンズ14、被検眼の瞳孔を介して被検眼の眼底に投光される。これにより、被検眼の眼底上に点光源像が形成される。   The light beam emitted from the measurement light source 11 is projected onto the fundus of the subject eye via the relay lens 12, the objective lens 14, and the pupil of the subject eye. Thereby, a point light source image is formed on the fundus of the eye to be examined.

そして、被検眼の眼底に投光された点光源像は、反射光束として被検眼を射出し、対物レンズ14で集光された後、ハーフミラー13で反射される。ハーフミラー13で反射された光は、リレーレンズ16にて一旦集光された後、全反射ミラー17で反射される。そして、全反射ミラー17で反射された光束は、コリメータレンズ19を介して、レンズアレイ20によって複数の光束に分割された後、二次元受光素子22に受光される。そして、二次元受光素子22に受光されたパターン像は、画像データとしてメモリ31に記憶される。   The point light source image projected onto the fundus of the subject's eye exits the subject's eye as a reflected light beam, is collected by the objective lens 14, and then reflected by the half mirror 13. The light reflected by the half mirror 13 is once condensed by the relay lens 16 and then reflected by the total reflection mirror 17. The light beam reflected by the total reflection mirror 17 is split into a plurality of light beams by the lens array 20 via the collimator lens 19 and then received by the two-dimensional light receiving element 22. The pattern image received by the two-dimensional light receiving element 22 is stored in the memory 31 as image data.

レンズアレイ20で複数の光束に分割され二次元受光素子に受光されるパターン像は、被検眼の収差(低次収差、高次収差)の影響によって変化する。無収差の光が通過するときの基準パターン像に対して、被検眼からの反射光により生じるパターン像を解析することにより、眼の波面収差の分布、および、屈折力の分布、を測定できる。本実施形態では、このようにして求められた分布データが、第1分布データとしてメモリ31に記憶される。   The pattern image that is divided into a plurality of light beams by the lens array 20 and received by the two-dimensional light receiving element changes due to the influence of the aberration (low-order aberration, high-order aberration) of the eye to be examined. By analyzing the pattern image generated by the reflected light from the eye to be examined with respect to the reference pattern image when non-aberration light passes, it is possible to measure the wavefront aberration distribution and refractive power distribution of the eye. In the present embodiment, the distribution data obtained in this way is stored in the memory 31 as the first distribution data.

また、本装置1は、被検眼の瞳孔部を含む前眼部画像を撮影する前眼部カメラ(図示せず)を有していてもよい。前眼部画像からは、例えば、被検眼の瞳孔径が測定可能である。このような前眼部カメラは、照明光の光量を切り替えて撮像可能な構成であってもよい。例えば、明所視および薄暮視のそれぞれにおける被検眼の前眼部画像が撮像されてもよい。この場合、明所視撮影用の第1の照明光量と、第1の照明光量よりも少ない薄暮視撮影用の第2の照明光量とに、照明光源出力が調節可能な構成とされていてもよい。   Further, the present apparatus 1 may have an anterior eye camera (not shown) that captures an anterior eye image including a pupil part of the eye to be examined. From the anterior segment image, for example, the pupil diameter of the eye to be examined can be measured. Such an anterior segment camera may be configured to be able to capture an image by switching the amount of illumination light. For example, an anterior segment image of the eye to be examined in each of photopic vision and dusk vision may be captured. In this case, even if it is set as the structure which can adjust an illumination light source output to the 1st illumination light quantity for photopic photography, and the 2nd illumination light quantity for dusk vision photography smaller than the 1st illumination light quantity Good.

また、前述したように、本装置1は、レンズメータ200、および、アイポジションメータ300等の他の装置と接続されていてもよい。これらの他の装置から出力される情報が、本装置1に入力されることによって、その情報が、メモリ31に記憶される。   Further, as described above, the present apparatus 1 may be connected to other devices such as the lens meter 200 and the eye position meter 300. When information output from these other devices is input to the present device 1, the information is stored in the memory 31.

<動作説明>
次に、図3以下を参照して、本装置1の動作を説明する。
<Description of operation>
Next, the operation of the apparatus 1 will be described with reference to FIG.

例えば、まず、検者は、本装置1の測定ユニット100を介して、屈折誤差の分布に関する被検眼Eの光学特性を測定する。その結果として、少なくとも第1分布データが、本装置1のメモリ31に記憶(取得)される(ステップ1)。   For example, first, the examiner measures the optical characteristics of the eye E with respect to the distribution of refraction errors via the measurement unit 100 of the apparatus 1. As a result, at least the first distribution data is stored (acquired) in the memory 31 of the apparatus 1 (step 1).

また、検者は、被検眼Eの測定と前後して(或いは、並行して)、眼鏡レンズの光学特性をレンズメータ200によって測定してもよい。測定後、眼鏡レンズの測定データである第2分布データが、オンラインまたはオフラインで本装置1に入力され、その結果として、第2分布データが、本装置1のメモリ31に記憶(取得)される(ステップ2)。   The examiner may measure the optical characteristics of the spectacle lens with the lens meter 200 before or after (or in parallel with) the measurement of the eye E. After the measurement, the second distribution data as the spectacle lens measurement data is input to the apparatus 1 online or offline, and as a result, the second distribution data is stored (acquired) in the memory 31 of the apparatus 1. (Step 2).

また、被検眼における瞳孔径の測定が行われてもよい。更に、眼鏡レンズと被検眼Eとの相対的な位置関係に関する測定データ(アイポイント,眼と眼鏡レンズとの距離、眼鏡レンズに対する視線の向き、および、眼鏡レンズに対する視線の通過位置,等)がアイポジションメータ300等の他の装置を介して測定され、本装置1のメモリ31に記憶されてもよい(ステップ3)。なお、瞳孔径は、明所視,および,薄暮視のいずれの場合での値が測定されてもよい。明所視の瞳孔径、および薄暮視の瞳孔径のそれぞれは、例えば、明所視の前眼部画像および暗所視の前眼部画像のそれぞれから測定されてもよい。   Moreover, the pupil diameter in the eye to be examined may be measured. Further, measurement data relating to the relative positional relationship between the spectacle lens and the eye E (eye point, distance between the eye and the spectacle lens, the direction of the line of sight with respect to the spectacle lens, the passing position of the line of sight with respect to the spectacle lens, etc.) It may be measured via another device such as the eye position meter 300 and stored in the memory 31 of the device 1 (step 3). Note that the pupil diameter may be measured for either photopic vision or twilight vision. Each of the pupil diameter of photopic vision and the pupil diameter of dusk vision may be measured, for example, from each of the anterior segment image of photopic vision and the anterior segment image of scotopic vision.

CPU30は、第1分布データと第2分布データとに基づいて、眼鏡レンズによる矯正を考慮した屈折誤差の分布に関する第3分布データを得る(ステップ4)。例えば、ステップ4においては、第1分布データに対する第2分布データの差分が求められ、その差分として、第3分布データが取得されてもよい。なお、第1分布データと、第2分布データとの単位が互いに異なる場合は、互いの単位を一致させるための演算処理がステップ4に含まれていてもよい。   Based on the first distribution data and the second distribution data, the CPU 30 obtains third distribution data related to the refraction error distribution in consideration of correction by the spectacle lens (step 4). For example, in step 4, a difference between the second distribution data and the first distribution data is obtained, and the third distribution data may be acquired as the difference. Note that, when the units of the first distribution data and the second distribution data are different from each other, an arithmetic process for matching the units may be included in step 4.

例えば、図3では、CPU30によって、被検眼における屈折誤差の分布データ(第1分布データの一例)と、眼鏡レンズにおける屈折力分布データ(第2分布データの具体例)と、の差分が取られ、その結果として、第3分布データが生成される。勿論、第3分布データとして収差の形式のデータを得る場合は、屈折力の形式から収差の形式に変更されてもよい。勿論、第1分布データと第2分布データとが収差の形式で合成され(差分がとられ)、その結果として、収差の形式での第3分布データが得られてもよい。   For example, in FIG. 3, the CPU 30 calculates the difference between the refractive error distribution data in the eye to be examined (an example of the first distribution data) and the refractive power distribution data in the spectacle lens (a specific example of the second distribution data). As a result, third distribution data is generated. Of course, when data in the form of aberration is obtained as the third distribution data, the form of refractive power may be changed to the form of aberration. Of course, the first distribution data and the second distribution data may be combined (difference is taken) in the form of aberration, and as a result, third distribution data in the form of aberration may be obtained.

レンズメータ200は、眼鏡レンズにおける広範囲の屈折力分布を測定データとして得るが、眼鏡レンズ装用時における見え方を評価するうえで、眼鏡レンズ全体についてのデータは必ずしも必要ではない。そこで、例えば、図3に示すように、眼鏡レンズの測定データのうち、一部の領域GAについてのデータが、主に考慮されるとよい。例えば、GAは、矯正レンズにおける被検眼Eの視線通過位置およびその近傍領域(本実施形態では、両者をまとめて「視線通過領域」と称す)についてのデータであってもよい。このような領域GAの位置は、アイポジションメータ300で取得されたアイポイント情報に基づいて、CPU30によって定められてもよい。   The lens meter 200 obtains a wide range of refractive power distribution in the spectacle lens as measurement data, but data on the entire spectacle lens is not necessarily required to evaluate the appearance when the spectacle lens is worn. Therefore, for example, as shown in FIG. 3, data about a part of the area GA among the measurement data of the spectacle lens is mainly considered. For example, GA may be data regarding the line-of-sight passage position of the eye E to be examined and its vicinity area (in the present embodiment, both are collectively referred to as “line-of-sight passage area”). The position of such a region GA may be determined by the CPU 30 based on the eye point information acquired by the eye position meter 300.

また、領域GAの大きさは、被検眼の瞳孔径に応じて設定されてもよい。そして、CPU30は、領域GAにおける第2分布データに基づいて、重ね合せを行う。領域GAは、被検眼Eにおける瞳孔径と同程度の大きさである。   Further, the size of the region GA may be set according to the pupil diameter of the eye to be examined. Then, the CPU 30 performs superposition based on the second distribution data in the area GA. The area GA is approximately the same size as the pupil diameter in the eye E.

なお、瞳孔径の値は、例えば、前眼部の撮影画像に基づいて取得されてもよい。前眼部の撮影画像は、例えば、本装置1で撮影されてもよいし、アイポジションメータ300で撮影されてもよいし、他の装置で撮影された画像であってもよい。また、瞳孔径は、明所視での値と、薄暮視での値との中から、一方を選択可能であってもよい。なお、瞳孔径は、必ずしも前眼部の撮影画像に基づいて検出されなくてもよく、例えば、検者が操作部40を介して手動で入力した瞳孔径に基づいて設定されてもよいし、被検者の年齢に応じた推定値であってもよいし、単なる固定値であってもよい。   Note that the value of the pupil diameter may be acquired based on, for example, a captured image of the anterior segment. The captured image of the anterior segment may be captured by the apparatus 1, may be captured by the eye position meter 300, or may be an image captured by another apparatus. Further, the pupil diameter may be selectable between a value in photopic vision and a value in dusk vision. Note that the pupil diameter does not necessarily have to be detected based on a captured image of the anterior segment. For example, the pupil diameter may be set based on the pupil diameter manually input by the examiner via the operation unit 40. The estimated value according to the age of the subject may be sufficient, and a mere fixed value may be sufficient.

また、領域GAのサイズを導出するうえで、瞳孔径以外のパラメータが考慮されてもよい。例えば、眼鏡レンズと被検眼との相対的な位置関係が考慮されてもよい。位置関係の具体例としては、アイポイント,眼と眼鏡レンズとの距離、眼鏡レンズに対する視線の向き、および、眼鏡レンズに対する視線の通過位置,等)が例示される。また、眼鏡レンズの度数が、考慮されてもよい。   Further, parameters other than the pupil diameter may be considered in deriving the size of the region GA. For example, the relative positional relationship between the spectacle lens and the eye to be examined may be considered. Specific examples of the positional relationship include an eye point, a distance between the eye and the spectacle lens, an orientation of the line of sight with respect to the spectacle lens, and a passing position of the line of sight with respect to the spectacle lens. Also, the power of the spectacle lens may be taken into account.

また、領域GAの位置は、必ずしもアイポイント情報に基づいて設定される必要は無い。例えば、レンズ中心、累進多焦点レンズにおける近用ポイントまたは遠用ポイント、等の、眼鏡レンズにおける特徴点の位置に、領域GAは設定されてもよい。勿論、これに限られるものではなく、これら以外の眼鏡レンズ上の任意の位置に対して設定されてもよい。領域GAの位置は、眼鏡レンズに対して、自動および手動のいずれで設定されてもよい。   Further, the position of the area GA is not necessarily set based on the eye point information. For example, the region GA may be set at the position of the feature point in the spectacle lens such as the lens center, the near point or the far point in the progressive multifocal lens. Of course, it is not restricted to this, You may set with respect to arbitrary positions on a spectacle lens other than these. The position of the area GA may be set either automatically or manually with respect to the spectacle lens.

自動で設定される場合、例えば、CPU30は、第2分布データに基づいてレンズの種別(例えば、球面レンズ、バイフォーカルレンズ、および、累進多焦点レンズのいずれであるか)を判定し、判定された種別に応じた位置に設定されてもよい。例えば、上述したような、眼鏡レンズにおける特徴点の少なくともいずれかに、領域GAが設定されてもよい。   In the case of automatic setting, for example, the CPU 30 determines a lens type (for example, a spherical lens, a bifocal lens, or a progressive multifocal lens) based on the second distribution data, and is determined. The position may be set according to the type. For example, the region GA may be set in at least one of the feature points in the spectacle lens as described above.

また、図4に示すように、被検眼Eの瞳孔における第1分布データの抽出ポイントと、眼鏡レンズ(より具体的には、領域GA)における第2分布データの抽出ポイントとの位置および数が、対応していない場合が考えられる。例えば、単位面積当たりの抽出ポイントの数が、測定ユニット100とレンズメータ200とで異なること、眼鏡レンズに対して視線方向が傾斜していること、等によって生じ得る。ここでいう、抽出ポイントは、屈折力の測定ポイントであってもよい。また、第2分布データが、眼鏡レンズの設計値である場合、その眼鏡レンズに関する各抽出ポイントは、屈折力が示される設計上の代表点であってもよい。   Further, as shown in FIG. 4, the positions and the numbers of the extraction points of the first distribution data in the pupil of the eye E and the extraction points of the second distribution data in the spectacle lens (more specifically, the region GA) are The case where it does not correspond is considered. For example, the number of extraction points per unit area may be different between the measurement unit 100 and the lens meter 200, or the viewing direction may be inclined with respect to the spectacle lens. The extraction point mentioned here may be a refractive power measurement point. When the second distribution data is a design value of a spectacle lens, each extraction point related to the spectacle lens may be a design representative point indicating a refractive power.

これに対し、本実施形態では、屈折力,および,収差のうち少なくともいずれかの分布の重ねあわせが、被検眼Eの瞳孔における第1分布データの抽出ポイントと、眼鏡レンズ(より具体的には、領域GA)における第2分布データの抽出ポイントと、の数,および,位置のうち少なくとも何れかを整合させたうえで行われる。整合方法としては、種々の方法を用いることができる。   On the other hand, in the present embodiment, the superposition of at least one of refractive power and aberration is determined by the extraction point of the first distribution data in the pupil of the eye E and the spectacle lens (more specifically, , Region GA) is performed after matching at least one of the number and position of the extraction points of the second distribution data. Various methods can be used as the matching method.

例えば、被検眼または眼鏡レンズについて、屈折力分布,および,収差の分布,のいずれかにフィッティングする関数を、複数の抽出ポイントの値から導出し、その導出した関数に基づいて重ね合わせが行われてもよい。上記の整合処理が行われた結果、被検眼と眼鏡レンズとのそれぞれにおける屈折力,および,収差のうち少なくともいずれかの分布を、良好に重ねあわせることができる。   For example, for a subject eye or a spectacle lens, a function for fitting either a refractive power distribution or an aberration distribution is derived from the values of a plurality of extraction points, and superposition is performed based on the derived function. May be. As a result of the above alignment processing, it is possible to satisfactorily overlap at least one of the refractive power and the aberration distribution in each of the eye to be examined and the spectacle lens.

また、第1分布データと第2分布データとを整合する際に、眼鏡レンズと被検眼との相対的な位置関係が考慮されてもよい。例えば、眼鏡レンズに対し視線方向が傾いている場合は、視線方向における眼鏡レンズのレンズ軸と交差する成分に関して、領域GAにおける第2分布データを補正することで、第1分布データと第2分布データとの整合を図ってもよい。   Further, when matching the first distribution data and the second distribution data, the relative positional relationship between the spectacle lens and the eye to be examined may be considered. For example, when the line-of-sight direction is inclined with respect to the spectacle lens, the first distribution data and the second distribution are corrected by correcting the second distribution data in the region GA with respect to a component that intersects the lens axis of the spectacle lens in the line-of-sight direction. You may aim at consistency with data.

<シミュレーション画像の表示>
CPU30は、第1分布データおよび第2分布データによる合成分布データ(重ねあわせの結果)に基づいて、例えば、シミュレーション画像を生成する(ステップ5)。本実施形態において、シミュレーション画像は、特段の断りが無い限り、『眼鏡レンズが装用された被検眼において、眼底で結像される視標像をシミュレーションした画像』を示す。眼鏡レンズ装用時における被検眼Eでの視標像の見え方が、シミュレーション画像によって表される。シミュレーション画像は、例えば、モニタ50に表示される。
<Display simulation image>
The CPU 30 generates, for example, a simulation image based on the combined distribution data (superposition result) based on the first distribution data and the second distribution data (step 5). In the present embodiment, the simulation image indicates “an image obtained by simulating a visual target image formed on the fundus in the eye to be inspected wearing the spectacle lens” unless otherwise specified. The appearance of the target image on the eye E when wearing the spectacle lens is represented by a simulation image. The simulation image is displayed on the monitor 50, for example.

シミュレーション画像において利用される視標は、図3に示すような自覚検査用の視標であってもよい(例えば、ETDRS視標、解像度チャート、乱視チャート等)。また、風景チャート、および、点像(点視標)等の他の視標が、シミュレーション画像に関する視標として利用されもよい。点像によるシミュレーション画像は、例えば、波面収差についての重ね合わせ結果をフーリエ変換することによって得られる、点像強度分布(PSF)が視覚化された画像であってもよい。一方、自覚検査用視標等による視標のシミュレーション画像は、例えば、点像強度分布(PSF)と視標との画像処理(例えば、コンボリューション積分)によって得られもよいし、点像強度分布(PSF)を更にフーリエ変換することによって得られる光学伝達関数(OTF)を、視標と画像処理(コンボリューション積分)することによって得られてもよい。   The target used in the simulation image may be a target for subjective examination as shown in FIG. 3 (for example, ETDRS target, resolution chart, astigmatism chart, etc.). In addition, other targets such as a landscape chart and a point image (point target) may be used as targets for the simulation image. The simulation image based on the point image may be an image obtained by visualizing the point image intensity distribution (PSF) obtained by, for example, Fourier transforming the superposition result regarding the wavefront aberration. On the other hand, a simulation image of a target by a target for subjective examination or the like may be obtained by, for example, image processing (for example, convolution integration) between a point image intensity distribution (PSF) and a target, or a point image intensity distribution. An optical transfer function (OTF) obtained by further Fourier transforming (PSF) may be obtained by subjecting the target to image processing (convolution integration).

シミュレーション画像は、そのシミュレーション画像を生成するうえで第2分布データが利用された眼鏡レンズ上の領域(ここでは、領域GA)の位置を示す情報と共に表示されてもよい。このような表示により、シミュレーション画像によって、レンズの何れの領域を介した見え方が示されているかを、検者が容易に把握できる。例えば、図5に示すように、シミュレーション画像と共に、眼鏡レンズを示すレンズグラフィックLGを表示させ、そのレンズグラフィックLG上に、シミュレーション画像に対応する領域GAの位置を示す表示(つまり、位置情報の表示)が行われてもよい。例えば、図5では、シミュレーション画像からの吹き出し線,および,十字の指標(いずれも、通過位置情報の一例)によって、各々のシミュレーション画像と対応する領域GAの位置が、レンズグラフィックLG上に示される。但し、シミュレーション画像と、領域GAの位置との対応関係が把握可能な表示であればよく、図5に示す表示態様に限定されるものではない。   The simulation image may be displayed together with information indicating the position of the region (here, region GA) on the spectacle lens in which the second distribution data is used in generating the simulation image. By such display, the examiner can easily grasp through which area of the lens the simulation image shows how the lens is viewed. For example, as shown in FIG. 5, a lens graphic LG indicating a spectacle lens is displayed together with the simulation image, and a display indicating the position of the region GA corresponding to the simulation image is displayed on the lens graphic LG (that is, display of position information). ) May be performed. For example, in FIG. 5, the position of the region GA corresponding to each simulation image is indicated on the lens graphic LG by a balloon line from the simulation image and a cross indicator (both are examples of passing position information). . However, the display is not limited to the display mode shown in FIG. 5 as long as the correspondence between the simulation image and the position of the area GA can be grasped.

なお、領域GAの位置を示す方法は、必ずしもレンズグラフィックLGを利用する方法に限定されるものではない。例えば、CPU30は、シミュレーション画像と共に、眼鏡レンズにおける領域GAの位置を示すテキスト情報(視線通過位置情報の一例)を表示させてもよい。テキスト情報としては、例えば、レンズ中心,遠用ポイント,近用ポイント,累進帯,遠用ポイント周辺部,近用ポイント周辺部等の眼鏡レンズにおける特徴点を示すテキストが利用されてもよいし、レンズ中心等を基準点(例えば、原点)とする座標であってもよいし、これら以外であってもよい。   Note that the method of indicating the position of the region GA is not necessarily limited to the method using the lens graphic LG. For example, the CPU 30 may display text information (an example of line-of-sight passage position information) indicating the position of the region GA in the spectacle lens together with the simulation image. As the text information, for example, text indicating feature points in a spectacle lens such as a lens center, a distance point, a near point, a progressive band, a distance point periphery, a near point periphery, or the like may be used. Coordinates with the lens center or the like as a reference point (for example, the origin) may be used, or other coordinates may be used.

レンズグラフィックLGには、レンズの特徴点の位置を示すための特徴領域グラフィックが含まれていてもよい。特徴領域グラフィックは、例えば、レンズグラフィックLGにおける特徴点の位置に置かれる指標であってもよい。また、特徴点を特定するためのレンズグラフィックLG上のマップであってもよい。特徴点グラフィックは、眼鏡レンズが多焦点レンズの場合、少なくとも、遠用ポイント、および、近用ポイントを特定するためのグラフィックである。マップの例を、図5に示す。図5のレンズグラフィックLGは、累進多焦点レンズについてのグラフィックである。図5では、レンズ度数の等高線によってレンズグラフィックLGを複数の領域に区分する態様の特徴点グラフィックが示されている。図5に示すように、累進多焦点レンズにおける特徴点グラフィックでは、少なくとも、遠用ポイントFP、および、近用ポイントSPが示される。また、これに限られるものではなく、累進帯PZ、遠用ポイント周辺部NF、近用ポイント周辺部NS等の各特徴点、が、特徴点グラフィックによって示されてもよい。   The lens graphic LG may include a feature area graphic for indicating the position of the feature point of the lens. The feature area graphic may be an index placed at the position of the feature point in the lens graphic LG, for example. Further, it may be a map on the lens graphic LG for specifying the feature point. The feature point graphic is a graphic for specifying at least the distance point and the near point when the spectacle lens is a multifocal lens. An example of the map is shown in FIG. The lens graphic LG in FIG. 5 is a graphic for a progressive multifocal lens. FIG. 5 shows a feature point graphic in which the lens graphic LG is divided into a plurality of regions by the contour lines of the lens power. As shown in FIG. 5, the feature point graphic in the progressive multifocal lens shows at least the far point FP and the near point SP. Further, the present invention is not limited to this, and each feature point such as the progressive zone PZ, the distance point peripheral portion NF, and the near point peripheral portion NS may be indicated by a feature point graphic.

図5のように、レンズグラフィックLGを用いて領域GAの位置が示される場合、特徴点グラフィックがあることで、シミュレーション画像が眼鏡レンズの何れの領域を介した見え方であるかを、検者がいっそう容易に把握しやすくなる。   As shown in FIG. 5, when the position of the area GA is indicated using the lens graphic LG, the feature point graphic indicates that the area through which the simulation image is viewed through the spectacle lens. Is easier to grasp.

また、領域GAの位置が眼鏡レンズにおいて互いに異なる複数のシミュレーション画像が生成されてもよい。   A plurality of simulation images in which the position of the region GA is different from each other in the spectacle lens may be generated.

複数のシミュレーション画像は、図5に示すようにモニタ50上で一覧表示されてもよい。また、この場合、図5に示すように、各々のシミュレーション画像と対応する領域GAの位置を示す情報が、モニタ50に表示されてもよい。これにより、眼鏡レンズが装用された状態の被検眼の見え方が、検者によって多角的に把握されやすくなる。   The plurality of simulation images may be displayed as a list on the monitor 50 as shown in FIG. In this case, as shown in FIG. 5, information indicating the position of the area GA corresponding to each simulation image may be displayed on the monitor 50. This makes it easier for the examiner to grasp the appearance of the eye to be examined with the spectacle lens worn.

また、複数のシミュレーション画像のうち一部が、選択的にモニタ50上に表示されてもよい。例えば、視線通過領域の位置が互いに異なる複数のシミュレーション画像のうち1つが、時間経過に応じて切り替えられながら表示されてもよい。このとき、眼の旋回によって視線が遷移(換言すれば、視線通過領域の遷移)するときの見え方の変化を示すようなシミュレーション画像の切換表示が、CPU30によって行われてもよい。   Moreover, some of the plurality of simulation images may be selectively displayed on the monitor 50. For example, one of a plurality of simulation images with different positions of the line-of-sight passage region may be displayed while being switched over time. At this time, the CPU 30 may perform switching display of a simulation image that indicates a change in appearance when the line of sight transitions (in other words, the transition of the line-of-sight passage region) by turning the eye.

例えば、図6に示すように、装用が想定される眼鏡レンズが累進多焦点レンズである場合において、眼鏡レンズの累進帯に沿って視線の遷移が行われるときのシミュレーション画像の切換表示が行われてもよい。この場合、図6に示すように、少なくとも遠用ポイントから近用ポイントまで視線が遷移するときの視標像の変化が示されるような、切換表示が行われてもよい。このような切替表示が行われることで、眼鏡レンズの使用感を、検者がより好適に把握できるようになる。例えば、視線移動時の見え方の変化において被検者に与える違和感の程度が把握されやすくなる。   For example, as shown in FIG. 6, when the spectacle lens assumed to be worn is a progressive multifocal lens, a switching display of a simulation image is performed when the line of sight is changed along the progressive zone of the spectacle lens. May be. In this case, as shown in FIG. 6, a switching display may be performed so that a change in the target image when the line of sight transitions from at least the distance point to the near point is shown. By performing such switching display, the examiner can more appropriately grasp the feeling of use of the spectacle lens. For example, it becomes easy to grasp the degree of uncomfortable feeling given to the subject in the change in appearance when moving the line of sight.

また、シミュレーション画像と連動して、視線通過領域の位置を示す情報(通過位置情報)が、切換表示されてもよい。図6では、シミュレーション画像からの吹き出し線の先端位置、および、十字の指標の位置がシミュレーション画像と連動して移動される。これにより、シミュレーション画像の切換表示中における視線通過領域の位置を、検者はリアルタイムに確認できる。   In addition, information indicating the position of the line-of-sight passage area (passage position information) may be switched and displayed in conjunction with the simulation image. In FIG. 6, the tip position of the balloon line from the simulation image and the position of the cross index are moved in conjunction with the simulation image. Thereby, the examiner can confirm in real time the position of the line-of-sight passage region during the switching display of the simulation image.

なお、上記のシミュレーション画像の切換表示において想定される視線の遷移速度は、変更可能であってもよい。例えば、操作部40への操作に基づいて遷移速度がCPU30によって設定されてもよい。設定された遷移速度での切換表示が行われることで、様々な場面での眼鏡レンズの使用感が把握されるようになる。   Note that the line-of-sight transition speed assumed in the switching display of the simulation image may be changeable. For example, the transition speed may be set by the CPU 30 based on an operation on the operation unit 40. By performing switching display at the set transition speed, the feeling of use of the spectacle lens in various scenes can be grasped.

なお、詳細は後述するが、図6の側方グラフィックSGでは、被検眼と、矯正レンズとを、側方から見たときの位置関係が示される。側方グラフィックSGも、シミュレーション画像の切換表示と連動して切り替えられる。よって、被検眼と矯正レンズとを側方から見たときの視線通過領域の遷移状況が示される。   Although the details will be described later, the side graphic SG of FIG. 6 shows the positional relationship when the eye to be examined and the correction lens are viewed from the side. The side graphic SG is also switched in conjunction with the simulation image switching display. Therefore, the transition state of the line-of-sight passage region when the eye to be examined and the correction lens are viewed from the side is shown.

また、シミュレーション画像では、被検眼からある呈示距離に置かれた視標を見たときの見え方がシミュレーションされているが、この視標の呈示距離は、複数の値の中から選択可能であってもよい。CPU30は、呈示距離を、任意の値の中から選択してもよいし、予め定められた複数の値の中から、選択可能であってもよい。例えば、少なくとも、「遠用」、「近用」、および、それらの「中間」の3種類程度の値の中から、選択可能であってもよい。   In addition, in the simulation image, the appearance when the target placed at a certain presentation distance from the eye to be examined is simulated is simulated. The presentation distance of this target can be selected from a plurality of values. May be. The CPU 30 may select the presentation distance from arbitrary values, or may be selectable from a plurality of predetermined values. For example, it may be possible to select from at least three kinds of values of “distance”, “near”, and “intermediate” thereof.

この場合、例えば、CPU30は、視標の呈示距離を選択し、シミュレーション画像を、選択された呈示距離を考慮して生成してもよい。以下、具体例を示す。なお、勿論、各具体例は、組み合わせて実施されてもよいし、一部だけが実施されてもよい。   In this case, for example, the CPU 30 may select the presentation distance of the target and generate the simulation image in consideration of the selected presentation distance. Specific examples are shown below. Of course, the specific examples may be implemented in combination, or only a part may be implemented.

ここで、シミュレーション画像の生成に際し、視標の呈示距離を考慮する具体例を示す。例えば、眼鏡レンズに対する領域GAの設定において呈示距離が考慮されてもよい。即ち、眼鏡レンズが多焦点レンズ(例えば、バイフォーカルレンズ、および、累進多焦点レンズ等)である場合に、呈示距離に応じた領域に、領域GAが設定されてもよい。そして、設定された領域GAにおける第2分布データと、第1分布データとに基づいて、シミュレーション画像が生成されてもよい。   Here, a specific example in which the presentation distance of the visual target is taken into consideration when generating the simulation image will be shown. For example, the presentation distance may be considered in setting the area GA for the spectacle lens. That is, when the spectacle lens is a multifocal lens (for example, a bifocal lens, a progressive multifocal lens, or the like), the region GA may be set in a region corresponding to the presentation distance. Then, a simulation image may be generated based on the second distribution data and the first distribution data in the set area GA.

図7の表は、累進多焦点レンズの場合に、視標の呈示距離が「遠用」,「近用」,「中間」の値に切り替えられる場合における領域GAの設定手法を例示している。即ち、視標の呈示距離が「遠用」である場合、遠用ポイントに領域GAが設定され、視標の呈示距離が「近用」である場合、近用ポイントに領域GAが設定され、更に、視標の呈示距離が「中間」である場合、累進帯に領域GAが設定される。そして、各場合において、設定された領域GAに応じたシミュレーション画像が生成される。   The table of FIG. 7 exemplifies a method of setting the region GA in the case of the progressive multifocal lens when the target distance of the target is switched to “far”, “near”, and “intermediate” values. . That is, if the target presentation distance is “far”, the area GA is set to the distance point, and if the target presentation distance is “near”, the area GA is set to the near point. Furthermore, when the target presentation distance is “intermediate”, the area GA is set in the progressive zone. In each case, a simulation image corresponding to the set area GA is generated.

また、例えば、波面センサでの測定において、固視標の呈示位置を互いに異ならせて測定された複数の第1分布データが、メモリ31に記憶されていてもよい。このとき、被検眼の調節力が併せて測定されてもよい。そして、「遠用」,「近用」,「中間」等の各々の視標の呈示距離に対し、どの程度の調節力の使用割合で得た第1分布データをシミュレーションに利用するかについては、適宜設定可能であってもよい。例えば、呈示距離が近づくにつれて調節力の使用割合が大きな第1分布データが利用されてもよい。   Further, for example, in the measurement by the wavefront sensor, a plurality of first distribution data measured with different fixation target presentation positions may be stored in the memory 31. At this time, the accommodation power of the eye to be examined may be measured together. For the simulation, the degree of use of the first distribution data obtained with the use ratio of the adjustment power with respect to the presentation distance of each target such as “distance”, “near”, “intermediate”, etc. It may be set as appropriate. For example, the first distribution data having a larger use rate of the adjustment force as the presentation distance approaches may be used.

図8の表は、視標の呈示距離が「遠用」,「近用」,「中間」に切り替えられる場合における第1分布データの選択手法を例示している。例えば、視標の呈示距離が「遠用」である場合に、調節力が働いていない状態の被検眼Eの測定に基づく第1分布データが選択され、視標の呈示距離が「近用」である場合に、所定割合の調節力を働かせた状態の被検眼Eの測定に基づく第1分布データが選択され、視標の呈示距離が「中間」である場合に、両者の場合の中間の調節力を働かせた状態の被検眼Eの測定に基づく第1分布データが選択され、シミュレーション画像が生成されてもよい。   The table in FIG. 8 exemplifies a method for selecting the first distribution data when the target presentation distance is switched to “far”, “near”, and “intermediate”. For example, when the target distance of the target is “far”, the first distribution data based on the measurement of the eye E in a state where the adjustment force is not working is selected, and the target distance of the target is “near” In the case where the first distribution data based on the measurement of the eye E under the condition that the adjustment force of a predetermined ratio is applied is selected and the presentation distance of the target is “intermediate”, The first distribution data based on the measurement of the eye E with the adjustment force applied may be selected, and a simulation image may be generated.

また、図9に示すように、CPU30は、視標の呈示距離が互いに異なる複数のシミュレーション画像を生成し、それらを、各々のシミュレーションに関する呈示距離と対応づけて、モニタ50に一覧表示させてもよい。図9は、視線通過領域,および,視標の呈示距離が、互いに異なるシミュレーション画像の一覧表示についての表示例である。このような一覧表示が行われることで、検者は、眼鏡レンズが装用された状態の被検眼の見え方についての多角的な把握が容易になる。     Further, as shown in FIG. 9, the CPU 30 may generate a plurality of simulation images having different target presentation distances and display them in a list on the monitor 50 in association with the presentation distances related to the respective simulations. Good. FIG. 9 is a display example of a list display of simulation images in which the line-of-sight passage region and the target presentation distance are different from each other. By performing such a list display, the examiner can easily understand from various perspectives about how the eye to be inspected with the spectacle lens worn.

また、眼鏡レンズと被検眼Eとの相対的な位置関係を示す情報が、シミュレーション画像と同時に、モニタ50上に表示されてもよい。例えば、図5,図10では、レンズグラフィックLG上に、アイポジションを示す指標EPが示される。この他、眼鏡レンズと被検眼Eとの相対的な位置関係を示す情報としては、矯正レンズにおける視線通過位置,角膜頂点間距離(VD),および,矯正レンズに対する視線方向,等であってもよい。これらの情報は、グラフィックで表示されてもよいし、文字および数値等のテキストで示されてもよいし、その他の方法で表示されてもよい。図10に、レンズグラフィック以外のグラフィックの具体例を示す。側方グラフィックSGは、被検眼と、矯正レンズとを、側方から見たときの位置関係を示しており、このようなグラフィックであってもよい。視線、眼鏡フレームのそり角、角膜頂点間距離、眼鏡レンズに対する眼の高さ、等が示される。   Further, information indicating the relative positional relationship between the spectacle lens and the eye E may be displayed on the monitor 50 simultaneously with the simulation image. For example, in FIGS. 5 and 10, an index EP indicating an eye position is shown on the lens graphic LG. In addition to this, the information indicating the relative positional relationship between the spectacle lens and the eye E may be the line-of-sight passage position in the correction lens, the corneal vertex distance (VD), the line-of-sight direction with respect to the correction lens, and the like. Good. These pieces of information may be displayed graphically, may be displayed as text such as letters and numerical values, or may be displayed by other methods. FIG. 10 shows a specific example of graphics other than lens graphics. The side graphic SG indicates a positional relationship when the eye to be examined and the correction lens are viewed from the side, and may be such a graphic. The line of sight, the warp angle of the spectacle frame, the corneal apex distance, the eye height relative to the spectacle lens, and the like are shown.

また、シミュレーション画像では、被検眼Eと眼鏡レンズとがある位置関係に置かれたときの見え方がシミュレーションされるが、シミュレーションにおける被検眼Eと眼鏡レンズとの位置関係は、互いに異なる複数の位置関係に設定可能であってもよい。換言すれば、例えば、シミュレーション画像を生成するうえで考慮される被検眼Eと眼鏡レンズとの位置関係は、各種指示に応じて変更可能であってもよい。そして、変更の都度、変更後の位置関係に基づくシミュレーション画像が、生成、および、表示されてもよい。   Further, in the simulation image, the appearance when the eye E and the spectacle lens are placed in a certain positional relationship is simulated, but the positional relationship between the eye E and the spectacle lens in the simulation is a plurality of different positions. The relationship may be settable. In other words, for example, the positional relationship between the eye E and the spectacle lens considered in generating the simulation image may be changeable according to various instructions. Then, each time a change is made, a simulation image based on the changed positional relationship may be generated and displayed.

シミュレーションにおける被検眼Eと眼鏡レンズの位置関係を変更させるための指示は、例えば、操作部40への操作入力に基づいて、CPU30によって受け付けられてもよい。図10を参照して、具体例を示す。ここでは、モニタ50において被検眼Eと眼鏡レンズとの位置関係を示すために表示されるグラフィックを介して、上記指示を受付ける具体例を示す。例えば、レンズグラフィックLG、および、側方グラフィックSGのいずれかを介して上記指示を受付けてもよい。例えば、ポインティングデバイス(操作部40の一例)を用いて、モニタ50におけるアイポイントに関する指標またはアイコン(例えば、アイポジションを示す指標EP、眼球B、および、レンズLの何れかを選択し、移動させるための操作が入力される。これにより、指標EP等の位置が操作に応じて変更されると共に、変更後の位置関係に応じたシミュレーション画像が表示されてもよい。また、角膜頂点間距離、フレームのそり角等も、いずれかの指標またはアイコンを移動させる操作によって、変更されてもよい。そして、その変更後のパラメータに基づくシミュレーション画像が生成されてもよい。なお、このようにして変更されるパラメータの初期値は、例えば、アイポジションメータ300等によって測定された測定値であってもよい。また、パラメータの変更後においても、初期値を示す情報が、モニタ50上に表示されてもよい。   An instruction for changing the positional relationship between the eye E and the spectacle lens in the simulation may be received by the CPU 30 based on an operation input to the operation unit 40, for example. A specific example is shown with reference to FIG. Here, a specific example is shown in which the above instruction is received via a graphic displayed on the monitor 50 to indicate the positional relationship between the eye E to be examined and the spectacle lens. For example, the instruction may be received through either the lens graphic LG or the side graphic SG. For example, by using a pointing device (an example of the operation unit 40), an index or an icon related to an eye point on the monitor 50 (for example, an index EP indicating an eye position, an eyeball B, or a lens L is selected and moved). Thus, the position of the index EP or the like may be changed according to the operation, and a simulation image corresponding to the changed positional relationship may be displayed. The warp angle of the frame or the like may be changed by an operation of moving any index or icon, and a simulation image based on the changed parameter may be generated. Even if the initial value of the parameter to be measured is, for example, a measured value measured by the eye position meter 300 or the like In addition, even after the parameter is changed, information indicating the initial value may be displayed on the monitor 50.

このように、本装置1は、被検眼Eと眼鏡レンズとの位置関係を変更してシミュレーションが可能であることによって、例えば、次のような効果が期待できる。即ち、被検眼に新レンズを処方する場合において、好適な見え方が得られる被検眼に対する眼鏡レンズの配置を、シミュレーション画像に基づいて、検者に容易に把握させることができる。また、その結果として、新レンズの候補の中から、いずれが妥当であるかを、検者が把握しやすくなる。   As described above, the present apparatus 1 can be simulated by changing the positional relationship between the eye E and the spectacle lens, and for example, the following effects can be expected. That is, when prescribing a new lens for the eye to be examined, the examiner can easily grasp the arrangement of the spectacle lens with respect to the eye to be examined with which a suitable appearance can be obtained based on the simulation image. As a result, the examiner can easily grasp which of the new lens candidates is appropriate.

また、シミュレーション画像は、スタイルクロフォード現象が考慮されていてもよい。眼底に対する光の入射角度が大きいほど視細胞の感度が下がる(第1種スタイルクロフォード現象)ことが知られており、この現象が考慮されることにより、シミュレーション画像を、被検者における実際の見え方により近づけることができる。例えば、シミュレーション画像を生成するうえで、点像強度分布(PSF)またはそれのフーリエ変換結果が重ねあわせられる視標像の画像データが、予め、視標像の周辺側程、輝度およびコントラストが低くなっている画像データであってもよい。このような画像データは、メモリ31に予め記憶されていてもよい。これに替えて、CPU30が、第1分布データおよび第2分布データに基づいて生成される視標像(シミュレーション画像)に対して、視標像の周辺側ほど輝度及びコントラストを低くするような補正処理を行ってもよい。なお、スタイルクロフォード現象が考慮されたシミュレーション画像を、モニタ50に表示する場合、そのシミュレーション画像と共に、スタイルクロフォード現象の影響を示すためのグラフィックが表示されてもよい。一例として、図10では、眼の横断方向に関する感度の分布を示すグラフSCが表示される。   The simulation image may take into account the style Crawford phenomenon. It is known that the greater the incident angle of light to the fundus, the lower the sensitivity of the photoreceptor cells (the first type Crawford phenomenon). By taking this phenomenon into account, simulation images can be obtained from actual subjects. It can be closer to how it looks. For example, when generating a simulation image, image data of a target image on which a point image intensity distribution (PSF) or a result of Fourier transform thereof is superimposed has a lower brightness and contrast in advance in the vicinity of the target image. It may be image data. Such image data may be stored in the memory 31 in advance. Instead of this, the CPU 30 corrects the target image (simulation image) generated based on the first distribution data and the second distribution data so that the luminance and contrast become lower toward the periphery of the target image. Processing may be performed. When a simulation image in which the style Crawford phenomenon is taken into consideration is displayed on the monitor 50, a graphic for indicating the influence of the style Crawford phenomenon may be displayed together with the simulation image. As an example, in FIG. 10, a graph SC showing the sensitivity distribution in the transverse direction of the eye is displayed.

また、CPU30は、眼鏡レンズ装用時における見え方の質を表すインデックス(具体例としては、評価パラメータ)を、第1分布データ,および,第2分布データに基づいて算出してもよい。そして、CPU30は、評価パラメータを、シミュレーション画像と共に、モニタ50上に表示させてもよい。評価パラメータの例としては、ストレール比、被検眼全体の波面収差のRMS値、位相シフト(PTF)、および空間周波数特性(MTF)等が挙げられる。   In addition, the CPU 30 may calculate an index (specifically, an evaluation parameter) representing the quality of appearance when wearing the spectacle lens based on the first distribution data and the second distribution data. Then, the CPU 30 may display the evaluation parameter on the monitor 50 together with the simulation image. Examples of evaluation parameters include Strehl ratio, RMS value of wavefront aberration of the entire eye to be examined, phase shift (PTF), spatial frequency characteristics (MTF), and the like.

また、CPU30は、被検眼Eにおける波面収差の分布データ(第1分布データの一態様)のうち,眼鏡矯正不能成分の分布データ(矯正不能分布データ)を抽出し、その矯正不能分布データに基づくシミュレーション画像を、比較シミュレーション画像として生成してもよい。矯正不能分布データに基づくシミュレーション画像は、正視眼の眼底において結像される視標像のシミュレーション画像に対し、矯正不能成分データによる重みづけが行われた画像である。そして、比較シミュレーション画像は、シミュレーション画像と共にモニタ50上に表示されてもよい。ここで、矯正不能分布データは、眼鏡レンズでは矯正できない収差成分である、高次(主には、3次以上)の収差の分布を表す。このため、矯正不能分布データに基づいて生成される比較シミュレーション画像は、眼鏡レンズ装用時における見え方のベンチマークとして利用できる。なお、眼鏡矯正不能成分に関する表示は、比較シミュレーション画像以外の態様であってもよい。例えば、矯正不能成分の大きさを示す値(例えば、高次収差量、及びRMS(円周方向のディオプトリの近似カーブに対する測定値の誤差の自乗平均和)等の情報)がモニタ50上に表示されてもよい。   Further, the CPU 30 extracts the distribution data (uncorrectable distribution data) of the uncorrectable spectacles component from the distribution data (one aspect of the first distribution data) of the wavefront aberration in the eye E, and based on the uncorrectable distribution data. A simulation image may be generated as a comparative simulation image. The simulation image based on the uncorrectable distribution data is an image obtained by weighting the simulation image of the target image formed on the fundus of the normal eye with the uncorrectable component data. The comparison simulation image may be displayed on the monitor 50 together with the simulation image. Here, the uncorrectable distribution data represents a higher-order (mainly third-order or higher) aberration distribution that is an aberration component that cannot be corrected by the spectacle lens. For this reason, the comparative simulation image generated based on the uncorrectable distribution data can be used as a benchmark for the appearance when the spectacle lens is worn. It should be noted that the display relating to the component that cannot correct glasses is not limited to the comparative simulation image. For example, a value indicating the magnitude of the uncorrectable component (for example, information such as the amount of high-order aberration and RMS (square mean sum of errors of measured values with respect to the approximate diopter curve in the circumferential direction)) is displayed on the monitor 50. May be.

以上、実施形態に基づいて説明を行ったが、本開示は、上記実施形態に限定されることなく、様々な変形が可能である。   As described above, the description has been given based on the embodiment, but the present disclosure is not limited to the above embodiment, and various modifications are possible.

例えば、上記実施形態では、シミュレーション画像を生成する際に利用される矯正レンズの度数情報として、視線通過位置における屈折力分布に関する情報(すなわち、領域GAにおける第2分布データ)が利用される場合を例示した。しかし、視線通過位置における矯正レンズの度数情報としては、複数の抽出点でのデータを持つ,分布情報である必要はない。例えば、視線通過位置に対して一義的に定められる度数情報が利用されてもよい。例えば、レンズメータ200の測定データ、或いは、眼鏡レンズの設計値データが、眼鏡レンズを1または複数に区分けした各領域に対して1つずつ度数が割り当てられているようなデータである場合に、本変容例が適用されてもよい。   For example, in the above-described embodiment, a case where information relating to the refractive power distribution at the line-of-sight passage position (that is, the second distribution data in the region GA) is used as the correction lens power information used when generating the simulation image. Illustrated. However, the correction lens power information at the line-of-sight position need not be distribution information having data at a plurality of extraction points. For example, frequency information uniquely determined with respect to the line-of-sight passage position may be used. For example, when the measurement data of the lens meter 200 or the design value data of the spectacle lens is data such that the frequency is assigned to each of the regions in which the spectacle lens is divided into one or more, This modification may be applied.

また、上記実施形態では、第3分布データに基づく、被検眼における見え方を示す情報であって,眼鏡レンズによる矯正結果を示す情報である,矯正結果情報として、シミュレーション画像が生成される場合を例示したが、必ずしもこれに限られるものではない。例えば、第3分布データをマップとして表したマップ画像が、矯正結果情報として、CPU30により生成されてもよい(例えば、図3に示すマップ)。また、矯正結果情報は、その他のグラフィック、テキスト、および、数値等であってもよい。   In the above-described embodiment, a case where a simulation image is generated as correction result information, which is information indicating how the eye is viewed based on the third distribution data and indicating correction results by the spectacle lens. Although illustrated, it is not necessarily limited to this. For example, a map image representing the third distribution data as a map may be generated by the CPU 30 as the correction result information (for example, the map shown in FIG. 3). Further, the correction result information may be other graphics, texts, numerical values, and the like.

1 眼鏡処方補助装置
30 CPU
31 記憶部(メモリ)
50 モニタ

1 glasses prescription assistance device 30 CPU
31 Memory (memory)
50 monitors

Claims (21)

波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと,被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報と,に基づいて生成されるシミュレーション画像であって、眼鏡レンズが装用された被検眼において眼底で結像される視標像がシミュレーションされたシミュレーション画像を取得するシミュレーション画像取得手段と、
前記シミュレーション画像取得手段で取得されるシミュレーション画像と共に、前記眼鏡レンズにおいて前記シミュレーション画像に対応する前記一部の位置を示す位置情報を、モニタに表示させる表示制御手段と、
を備える眼鏡処方補助装置。
The measurement data of the eye to be examined by the wavefront sensor, generated based on the first distribution data regarding the refractive error distribution of the eye to be examined and the frequency information in a part of the spectacle lens for correcting the refractive error of the eye to be examined. Simulation image acquisition means for acquiring a simulation image obtained by simulating a target image formed on the fundus of the eye to be examined in which the eyeglass lens is worn;
Display control means for displaying on the monitor position information indicating the position of the part corresponding to the simulation image in the eyeglass lens together with the simulation image acquired by the simulation image acquisition means,
An eyeglass prescription assisting device.
前記表示制御手段は、眼鏡レンズを模したレンズグラフィックを前記モニタに表示させ、前記位置情報として前記一部の位置を示す指標を前記レンズグラフィックに重畳させる請求項1記載の眼鏡処方補助装置。   The spectacles prescription assisting apparatus according to claim 1, wherein the display control unit displays a lens graphic imitating a spectacle lens on the monitor, and superimposes an index indicating the position of the part as the position information on the lens graphic. 前記表示制御手段は、前記眼鏡レンズにおける特徴箇所を示すための特徴箇所グラフィックを含んだ前記レンズグラフィックを表示させる請求項2記載の眼鏡処方補助装置。   The spectacle prescription assisting apparatus according to claim 2, wherein the display control means displays the lens graphic including a characteristic part graphic for indicating a characteristic part in the spectacle lens. 前記特徴箇所グラフィックは、前記眼鏡レンズが累進多焦点レンズである場合において、遠用ポイント、近用ポイント、および、累進帯のいずれかを特定するためのグラフィックであることを特徴とする請求項3記載の眼鏡処方補助装置。   4. The feature point graphic is a graphic for specifying any one of a distance point, a near point, and a progressive band when the spectacle lens is a progressive multifocal lens. The spectacles prescription assistance apparatus of description. 前記特徴箇所グラフィックは、前記眼鏡レンズ上で度数毎に領域が区分けされたマップであることを特徴とする請求項4記載の眼鏡処方補助装置。   5. The spectacle prescription assisting apparatus according to claim 4, wherein the characteristic location graphic is a map in which regions are divided for each frequency on the spectacle lens. 前記シミュレーション画像取得手段は、前記眼鏡レンズが装用されたときの前記眼鏡レンズに対する前記被検眼の位置であるアイポイント,での度数情報に基づいて生成される前記シミュレーション画像を少なくとも取得し、
前記表示制御手段は、前記アイポイントを示す情報を、前記位置情報として前記モニタに表示させる請求項1記載の眼鏡処方補助装置。
The simulation image acquisition means acquires at least the simulation image generated based on frequency information at an eye point that is a position of the eye to be examined with respect to the spectacle lens when the spectacle lens is worn,
The eyeglass prescription assisting apparatus according to claim 1, wherein the display control unit displays information indicating the eye point on the monitor as the position information.
前記シミュレーション画像取得手段は、1つの前記眼鏡レンズに対して互いに異なる複数の前記一部の位置に対応する複数の前記シミュレーション画像を取得し、
前記表示制御手段は、前記一部の位置が互いに異なる複数のシミュレーション画像を、各々のシミュレーション画像に関する位置情報と対応づけて前記モニタに表示させる請求項1から6のいずれかに記載の眼鏡処方補助装置。
The simulation image acquisition means acquires a plurality of the simulation images corresponding to a plurality of the partial positions different from each other for one spectacle lens,
The glasses prescription assisting device according to any one of claims 1 to 6, wherein the display control means displays a plurality of simulation images having different partial positions on the monitor in association with positional information on each simulation image. apparatus.
前記表示制御手段は、前記一部の位置が互いに異なる複数のシミュレーション画像のうち1つを、時間経過に応じて切換表示する請求項7記載の眼鏡処方補助装置。   The spectacles prescription assisting device according to claim 7, wherein the display control means switches and displays one of a plurality of simulation images having different partial positions as the time elapses. 前記表示制御手段は、眼の旋回により前記前記一部の位置が前記眼鏡レンズ上で遷移しているような前記シミュレーション画像の切換表示を行う請求項8記載の眼鏡処方補助装置。   9. The spectacle prescription assisting apparatus according to claim 8, wherein the display control means performs switching display of the simulation image such that the part of the position is shifted on the spectacle lens by eye rotation. 前記シミュレーション画像取得手段は、累進多焦点レンズが眼鏡レンズであるときの累進帯に沿った複数の前記一部の位置に対応する複数の前記シミュレーション画像を取得し、
前記表示制御手段は、前記表示制御手段は、前記累進帯に沿って前記一部の位置の遷移が行われているような前記シミュレーション画像の切換表示を行う請求項9記載の眼鏡処方補助装置。
The simulation image acquisition means acquires a plurality of the simulation images corresponding to a plurality of the partial positions along a progressive zone when the progressive multifocal lens is a spectacle lens,
10. The spectacle prescription assisting apparatus according to claim 9, wherein the display control means performs switching display of the simulation image such that the partial position is changed along the progressive zone.
前記視標像に係る視標の呈示距離である第1呈示距離を選択するための呈示距離選択手段と、
前記シミュレーション画像取得手段は、前記呈示距離選択手段で選択される前記第1呈示距離が考慮された前記シミュレーション画像を取得する請求項1から10のいずれかに記載の眼鏡処方補助装置。
A presentation distance selection means for selecting a first presentation distance which is a presentation distance of a target relating to the target image;
The glasses prescription assisting device according to any one of claims 1 to 10, wherein the simulation image acquisition unit acquires the simulation image in consideration of the first presentation distance selected by the presentation distance selection unit.
前記シミュレーション画像取得手段は、
前記眼鏡レンズが多焦点レンズであるときの前記シミュレーション画像を取得する際に、前記一部の位置を前記第1呈示距離に応じて設定し、設定された前記前記一部の位置での前記部分度数情報に基づいて前記シミュレーション画像を取得する請求項11記載の眼鏡処方補助装置。
The simulation image acquisition means includes
When acquiring the simulation image when the spectacle lens is a multifocal lens, the part position is set according to the first presentation distance, and the part at the set part position is set. The spectacles prescription assistance apparatus of Claim 11 which acquires the said simulation image based on frequency information.
前記取得手段は、前記波面センサにおける固視標の呈示距離である第2呈示距離を互いに異ならせて測定された複数の第1分布データが記憶され、
前記シミュレーション画像取得手段は、前記複数の第1分布データのうちいずれかを、前記呈示距離選択手段によって選択される第1呈示距離に応じて選択し、選択した前記第1分布データと前記第1呈示距離と、に基づいて前記シミュレーション画像を取得する請求項11または12記載の眼鏡処方補助装置。
The acquisition means stores a plurality of first distribution data measured with different second presentation distances, which are presentation distances of the fixation target in the wavefront sensor,
The simulation image acquisition means selects any one of the plurality of first distribution data according to a first presentation distance selected by the presentation distance selection means, and the selected first distribution data and the first distribution data The spectacles prescription assistance apparatus of Claim 11 or 12 which acquires the said simulation image based on presentation distance.
前記シミュレーション画像取得手段は、前記第1呈示距離が互いに異なる複数の前記シミュレーション画像を取得し、
前記表示制御手段は、複数の前記シミュレーション画像を前記第1呈示距離と対応づけて前記モニタにおいて一覧表示させる請求項11から13のいずれかに記載の眼鏡処方補助装置。
The simulation image acquisition means acquires the plurality of simulation images having different first presentation distances,
The spectacles prescription assisting device according to any one of claims 11 to 13, wherein the display control means displays a plurality of the simulation images in a list on the monitor in association with the first presentation distance.
前記眼鏡レンズと被検眼との位置関係と示す情報である位置関係情報を取得する取得手段を有し、
前記シミュレーション画像取得手段は、更に、前記位置関係情報にて示される前記眼鏡レンズと被検眼との位置関係を考慮して前記シミュレーション画像を取得する請求項1から14のいずれかに記載の眼鏡処方補助装置。
Having an acquisition means for acquiring positional relationship information which is information indicating the positional relationship between the eyeglass lens and the eye to be examined;
The spectacle prescription according to any one of claims 1 to 14, wherein the simulation image acquisition means further acquires the simulation image in consideration of the positional relationship between the spectacle lens and the eye to be examined indicated by the positional relationship information. Auxiliary device.
波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと、被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報である部分度数情報と、前記眼鏡レンズと被検眼との位置関係に関する情報である位置関係情報と、を取得する取得手段と、
被検眼の眼底において結像される視標像のシミュレーション画像であって、眼鏡レンズが装用された状態の被検眼に関するシミュレーション画像を、前記第1分布データと、前記部分度数情報と、前記位置関係情報と、に基づいて取得するシミュレーション画像取得手段と、
を備える眼鏡処方補助装置。
The measurement data of the eye to be examined by the wavefront sensor, the first distribution data regarding the distribution of the refraction error of the eye to be examined, and the partial power information which is the power information in a part of the spectacle lens for correcting the refraction error of the eye to be examined. Acquiring the positional relationship information, which is information regarding the positional relationship between the spectacle lens and the eye to be examined;
A simulation image of a target image formed on the fundus of the eye to be examined, the simulation image relating to the eye to be examined in a state where a spectacle lens is worn, the first distribution data, the partial frequency information, and the positional relationship Simulation image acquisition means for acquiring based on the information;
An eyeglass prescription assisting device.
前記シミュレーション画像において考慮される前記眼鏡レンズと被検眼との位置関係を変更するための指示を受け付ける指示受付手段を有し、
前記シミュレーション画像取得手段は、前記指示による変更後における前記位置関係が考慮された前記シミュレーション画像を取得する請求項15または16記載の眼鏡処方補助装置。
Comprising an instruction receiving means for receiving an instruction for changing a positional relationship between the eyeglass lens and the eye to be examined considered in the simulation image;
The glasses prescription assisting device according to claim 15 or 16, wherein the simulation image acquisition means acquires the simulation image in which the positional relationship after the change by the instruction is taken into consideration.
前記シミュレーション画像と共に、前記眼鏡レンズにおいて前記シミュレーション画像に対応する前記一部の位置を示す位置情報をモニタへ表示させる表示制御手段を持つ請求項16記載の眼鏡処方補助装置。   The eyeglass prescription assisting device according to claim 16, further comprising display control means for displaying, on the monitor, position information indicating the position of the part corresponding to the simulation image on the eyeglass lens together with the simulation image. 前記シミュレーション画像取得手段は、更に、前記第1分布データにおける矯正不能成分の分布データである矯正不能分布データを用いて、正視眼の眼底において結像される視標像のシミュレーション画像に対し、前記矯正不能成分データによる重みづけが行われた比較シミュレーション画像を取得し、
前記表示制御手段は、前記シミュレーション画像と共に、前記比較シミュレーション画像を前記モニタに表示させる請求項1から14,及び,18のいずれかに記載の眼鏡処方補助装置。
The simulation image acquisition means further uses the uncorrectable distribution data, which is the distribution data of the uncorrectable component in the first distribution data, for the simulation image of the visual target image formed on the fundus of the normal eye. Obtain a comparative simulation image weighted by the uncorrectable component data,
The glasses prescription assisting apparatus according to any one of claims 1 to 14, and 18, wherein the display control means displays the comparative simulation image together with the simulation image on the monitor.
眼鏡処方補助プログラムであって、コンピュータのプロセッサによって実行されることにより、
波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと,被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報と,に基づいて生成されるシミュレーション画像であって、眼鏡レンズが装用された被検眼において眼底で結像される視標像がシミュレーションされたシミュレーション画像を取得するシミュレーション画像取得ステップと、
前記シミュレーション画像取得ステップで取得されるシミュレーション画像と共に、前記眼鏡レンズにおいて前記シミュレーション画像に対応する前記一部の位置を示す位置情報を、モニタに表示させる表示制御ステップと、
を前記コンピュータに実行させることを特徴とする眼鏡処方補助プログラム。
An eyeglass prescription assisting program that is executed by a computer processor,
The measurement data of the eye to be examined by the wavefront sensor, generated based on the first distribution data regarding the refractive error distribution of the eye to be examined and the frequency information in a part of the spectacle lens for correcting the refractive error of the eye to be examined. A simulation image acquisition step of acquiring a simulation image in which a target image formed on the fundus in the eye to be examined is a simulation image,
A display control step for displaying on the monitor position information indicating the position of the part corresponding to the simulation image in the spectacle lens together with the simulation image acquired in the simulation image acquisition step;
Is executed by the computer.
眼鏡処方補助プログラムであって、コンピュータのプロセッサによって実行されることにより、
波面センサによる被検眼の測定データであって,被検眼の屈折誤差の分布に関する第1分布データと、被検眼の屈折誤差を矯正するための眼鏡レンズの一部における度数情報である部分度数情報と、前記眼鏡レンズと被検眼との位置関係に関する情報である位置関係情報と、を取得する取得ステップと、
被検眼の眼底において結像される視標像のシミュレーション画像であって、眼鏡レンズが装用された状態の被検眼に関するシミュレーション画像を、前記第1分布データと、前記部分度数情報と、前記位置関係情報と、に基づいて取得するシミュレーション画像取得ステップと、
を前記コンピュータに実行させることを特徴とする眼鏡処方補助プログラム。
An eyeglass prescription assisting program that is executed by a computer processor,
The measurement data of the eye to be examined by the wavefront sensor, the first distribution data regarding the distribution of the refraction error of the eye to be examined, and the partial power information which is the power information in a part of the spectacle lens for correcting the refraction error of the eye to be examined. Acquiring the positional relationship information, which is information regarding the positional relationship between the eyeglass lens and the eye to be examined; and
A simulation image of a target image formed on the fundus of the eye to be examined, the simulation image relating to the eye to be examined in a state where a spectacle lens is worn, the first distribution data, the partial frequency information, and the positional relationship A simulation image acquisition step to acquire based on the information;
Is executed by the computer.
JP2016073732A 2016-03-31 2016-03-31 Eyeglass prescription auxiliary device Active JP6693240B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016073732A JP6693240B2 (en) 2016-03-31 2016-03-31 Eyeglass prescription auxiliary device
US15/475,854 US10085631B2 (en) 2016-03-31 2017-03-31 Method for generating eyeglass-prescription assisting information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016073732A JP6693240B2 (en) 2016-03-31 2016-03-31 Eyeglass prescription auxiliary device

Publications (3)

Publication Number Publication Date
JP2017184789A true JP2017184789A (en) 2017-10-12
JP2017184789A5 JP2017184789A5 (en) 2019-04-25
JP6693240B2 JP6693240B2 (en) 2020-05-13

Family

ID=60044374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016073732A Active JP6693240B2 (en) 2016-03-31 2016-03-31 Eyeglass prescription auxiliary device

Country Status (1)

Country Link
JP (1) JP6693240B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013369A1 (en) * 2021-08-02 2023-02-09 株式会社トプコン Ophthalmic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08266464A (en) * 1995-03-31 1996-10-15 Hoya Corp Simulation apparatus for eye optical system
JP2000107129A (en) * 1998-10-09 2000-04-18 Hoya Corp Simulation method and apparatus for ophthalmologic optical system
JP2004105236A (en) * 2002-09-13 2004-04-08 Topcon Corp Device and method for discriminating correction element
JP2010134460A (en) * 2008-11-06 2010-06-17 Seiko Epson Corp Visual simulator for spectacle lens, visual simulation method for spectacle lens, and visual simulation program for spectacle lens
JP2015144730A (en) * 2014-02-03 2015-08-13 株式会社ニデック Information processing device for ophthalmology and information processing program for ophthalmology

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08266464A (en) * 1995-03-31 1996-10-15 Hoya Corp Simulation apparatus for eye optical system
JP2000107129A (en) * 1998-10-09 2000-04-18 Hoya Corp Simulation method and apparatus for ophthalmologic optical system
JP2004105236A (en) * 2002-09-13 2004-04-08 Topcon Corp Device and method for discriminating correction element
JP2010134460A (en) * 2008-11-06 2010-06-17 Seiko Epson Corp Visual simulator for spectacle lens, visual simulation method for spectacle lens, and visual simulation program for spectacle lens
JP2015144730A (en) * 2014-02-03 2015-08-13 株式会社ニデック Information processing device for ophthalmology and information processing program for ophthalmology

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013369A1 (en) * 2021-08-02 2023-02-09 株式会社トプコン Ophthalmic device

Also Published As

Publication number Publication date
JP6693240B2 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
US10085631B2 (en) Method for generating eyeglass-prescription assisting information
EP2079355B1 (en) Eyeglass prescription method and system
JP6206399B2 (en) An ophthalmic measurement apparatus, an ophthalmic measurement system including an ophthalmic measurement apparatus, and an ophthalmic measurement program.
JP6049750B2 (en) Luminance-dependent adjustment of spectacle lenses
US20100030570A1 (en) Systems and methods for ordering lenses
US10168549B2 (en) Optical visual aid with additional astigmatism
JP6349751B2 (en) Information processing program for ophthalmology
US20100039614A1 (en) System and method for prescription of visual aids
JP6279677B2 (en) Universal objective refraction
EP2899584B1 (en) Spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection method, measuring system and measuring method
CN109996483B (en) Apparatus, method and computer program for determining the refraction of an eye
ES2932157T3 (en) Determination of a refractive error of an eye
WO2017002846A1 (en) Visual function measurement device and visual function measurement program
JP6515478B2 (en) Ophthalmic device and ophthalmic measurement program
US20180074344A1 (en) Method for generating information for assisting lens prescription
JP6693240B2 (en) Eyeglass prescription auxiliary device
JP6708955B2 (en) Eyeglass prescription auxiliary device and eyeglass prescription auxiliary program
JP2016220960A (en) Wavefront sensor and wavefront aberration specifying program
JP6753228B2 (en) Lens prescription assistance program
JP6911301B2 (en) Lens prescription assistance program
JP2018038497A5 (en)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250