JP4750721B2 - Custom glasses manufacturing method - Google Patents

Custom glasses manufacturing method Download PDF

Info

Publication number
JP4750721B2
JP4750721B2 JP2006549287A JP2006549287A JP4750721B2 JP 4750721 B2 JP4750721 B2 JP 4750721B2 JP 2006549287 A JP2006549287 A JP 2006549287A JP 2006549287 A JP2006549287 A JP 2006549287A JP 4750721 B2 JP4750721 B2 JP 4750721B2
Authority
JP
Japan
Prior art keywords
image
pupil
frame
light sources
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006549287A
Other languages
Japanese (ja)
Other versions
JP2007522496A (en
Inventor
ウォーデン、ローレンス
ドレハー、アンドレアス、ダブリュ.
マーフィー、トロ
Original Assignee
オフソニックス・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オフソニックス・インコーポレーテッド filed Critical オフソニックス・インコーポレーテッド
Publication of JP2007522496A publication Critical patent/JP2007522496A/en
Application granted granted Critical
Publication of JP4750721B2 publication Critical patent/JP4750721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters

Description

関連出願Related applications

本出願は、2001年10月25日出願で係属中のアメリカ合衆国出願番号10/046,656、表題「カスタム眼鏡の製造方法」の一部継続出願であり、その利益を主張し、ここに全体として組み込む。   This application is a continuation-in-part of U.S. Application No. 10 / 046,656, entitled “Method for Manufacturing Custom Glasses,” pending on October 25, 2001, which claims its benefit and is incorporated herein in its entirety.

本発明は、一般的に眼鏡の適合ないし調整(fitting)装置及び方法に関する。特に、本発明は眼鏡フレーム及びレンズの自動測定及び調整システムに関する。   The present invention generally relates to glasses fitting and methods. In particular, the present invention relates to an eyeglass frame and lens automatic measurement and adjustment system.

現在の眼鏡製造技術では、患者の波面収差を精密に補正するレンズを製造することはできない。しかし、患者の波面収差に適合する異なる屈折率に硬化されるエポキシ樹脂を使用する新しい製造技術は、製造方法に新しい挑戦の道を開く。特に、患者の光軸に眼鏡を調整することは、球、円柱及び軸収差以外の収差を補正する眼鏡レンズの製造にあたって、最も重要なことである。このような精密な調整を確実にするために、角膜頂点からレンズまでの距離、瞳間距離及び患者の瞳(又は視軸)に合わせた眼鏡レンズの光軸の中心合わせを正確に測定する必要がある。   Current eyeglass manufacturing techniques cannot manufacture lenses that accurately correct patient wavefront aberrations. However, new manufacturing techniques that use epoxy resins that are cured to different refractive indices that match the patient's wavefront aberrations open up new challenges for manufacturing methods. In particular, adjusting eyeglasses to the patient's optical axis is most important in the manufacture of eyeglass lenses that correct aberrations other than spherical, cylindrical, and axial aberrations. In order to ensure such precise adjustment, it is necessary to accurately measure the distance from the apex of the cornea to the lens, the inter-pupil distance, and the centering of the optical axis of the spectacle lens to the patient's pupil (or visual axis). There is.

歴史的に、眼をケアする専門家は、眼鏡フレームに対する眼の位置決めには比較的簡単な方法しか用いてこなかった。専門家は、通常、2つの瞳の間の距離(「瞳間距離」という)と、瞳の中心から眼鏡フレーム又はレンズの底部までの高さを測定する。この後者の距離は「SEG高さ」という。この情報がレンズの光軸を両目の軸に合わせて調整するために試験室から要求される。   Historically, eye care professionals have used relatively simple methods to position the eye relative to the spectacle frame. Experts typically measure the distance between two pupils (referred to as “interpupillary distance”) and the height from the center of the pupil to the bottom of the spectacle frame or lens. This latter distance is called “SEG height”. This information is required from the test room to adjust the optical axis of the lens to the axis of both eyes.

これまで用いられてきた1つの技術は、単にレンズの上の瞳の中心にアイボーリング(eye balling、視覚的な分析)によって油脂色鉛筆で印を付け、定規で瞳間距離(PD)及びSEG高さを測るものであった。近年、瞳計及びデジタル瞳計が用いられるようになり、PDの測定精度が改善されてきた。しかし、瞳計は眼鏡レンズの後ろの位置でのPD測定に関するものではないし、また他の重要なパラメータであるSEG高さ、頂点間距離あるいはパントスコピック傾斜(全視野ないし全体的傾斜、pantoscopic tilt)も測定できない。累進屈折レンズの出現やより高次の補正ゾーンの発達により、これらのパラメータの正確な測定がますます重要になっている。   One technique that has been used is to simply mark the center of the pupil above the lens with an oil-colored pencil by eye balling (visual analysis), with a ruler to determine the pupil distance (PD) and SEG height. It was a measure. In recent years, pupil and digital pupils have been used, and the measurement accuracy of PD has been improved. However, the pupil meter does not relate to PD measurement at the position behind the spectacle lens, and other important parameters are SEG height, distance between vertices or pantoscopic tilt (full field or total tilt, pantoscopic tilt). ) Cannot be measured. With the advent of progressive refractive lenses and the development of higher order correction zones, accurate measurement of these parameters is becoming increasingly important.

デュカルージ(Ducarouge)らの合衆国特許第5,617,155号は、画像を用いて被験者の眼と関連した眼鏡フレームの位置を測定する方法を教示する。特にこの特許は、瞳がある領域の輝度勾配及びフレーム接線たる水平線及び垂直線の位置を分析することにより、フレームと眼の位置を自動的に検出する技術を記載している。この技術は、1台のカメラを利用しており、頂点間距離やフレームの視線からの傾斜のような、側面からのメトリクス(設計法、metrics)は提供しない。   US Pat. No. 5,617,155 to Ducarouge et al. Teaches a method for using images to determine the position of a spectacle frame relative to a subject's eye. In particular, this patent describes a technique for automatically detecting the position of a frame and an eye by analyzing the luminance gradient of a certain area of the pupil and the positions of horizontal and vertical lines tangent to the frame. This technology uses a single camera and does not provide metrics from the side, such as distance between vertices and tilt from the line of sight of the frame.

モーゼス(Mothes)の合衆国特許第6,659,609号は、好ましくは3mの距離に配置した1台のカメラシステムを記載している。この装置は、画像のスケールを決めるための空間的な比較対照となる、眼鏡フレームにクリップ留めされた校正用標識を用いる必要がある。また、特許中に記載されているように、患者は装置を見通すのではなく、鏡の中の自分自身を見る。   Mothes US Pat. No. 6,659,609 describes a single camera system, preferably located at a distance of 3 m. This device requires the use of a calibration marker clipped to the spectacle frame, which provides a spatial comparison to determine the scale of the image. Also, as described in the patent, the patient looks at himself in the mirror rather than looking through the device.

ノートン(Norton)らの合衆国特許第5,592,248号は、眼鏡を製造するための情報を得るために異なる角度からいくつかの画像を撮ることを記載している。この特許では、1台のカメラを使うことがクレームされ、3次元的再構成に必要な画像を得るために必要な位置に移動させている。複数のカメラを用いることがテキストで議論されているが、複数の画像をどのように連携して用いるか、又は複数のカメラを互いに空間的にどのように配向させるかが記載されていないので、この特許では複数のカメラの使用は実施不能である。さらに、対象者の瞳の位置を自動的に決定する画像解析及び基準マークは使用しておらず、単に画像上の相互的ソフトウェア定規によって測定している。   Norton et al., US Pat. No. 5,592,248, describes taking several images from different angles to obtain information for making eyeglasses. In this patent, it is claimed that one camera is used, and the camera is moved to a position necessary for obtaining an image necessary for three-dimensional reconstruction. The use of multiple cameras is discussed in the text, but it does not describe how to use multiple images in a coordinated manner or how to orient multiple cameras spatially with respect to each other, This patent does not allow the use of multiple cameras. Furthermore, image analysis and fiducial marks that automatically determine the position of the subject's pupil are not used, but are simply measured by a reciprocal software ruler on the image.

アビトボル(Abitbol)らの合衆国特許出願公開第2003-0123026号は、デジタル表示された対象者が着用する眼鏡フレームを、デジタル的にモデル化し表示することを主な目的とする3次元カメラシステムを記載している。しかし患者を3次元的に再構成することは時間がかかり、また眼鏡フレーム調整のために必要とされる基礎的測定値には不必要である。さらに、市販されている3Dカメラの精度は、高次補正ゾーンの正確な位置決めに通常必要とされる0.5mm未満の位置決め精度には不十分である。   Abitbol et al., US Patent Application Publication No. 2003-0123026, describes a three-dimensional camera system whose primary purpose is to digitally model and display eyeglass frames worn by digitally displayed subjects. is doing. However, reconstructing the patient in three dimensions is time consuming and unnecessary for the basic measurements required for eyeglass frame adjustment. Furthermore, the accuracy of commercially available 3D cameras is insufficient for positioning accuracy of less than 0.5 mm, which is usually required for accurate positioning of high-order correction zones.

合衆国特許第5,617,155号US Patent No. 5,617,155 合衆国特許第6,659,609号U.S. Patent No. 6,659,609 合衆国特許第5,592,248号US Patent No. 5,592,248 合衆国特許出願公開第2003-0123026号US Patent Application Publication No. 2003-0123026

フレームの調整システム及び方法が開示される。1以上の撮像装置が、対象者が着用した眼鏡フレームの2以上の画像を撮影する。画像は、フレーム上の関心点(複数、specific points of interest)と対象(者)のそれぞれの眼の位置との関係を同定するために、自動画像処理技術を用いて解析され、レンズの光学中心をフレームの正しい位置に配置することが可能となる。画像処理装置は、画像から瞳間距離と瞳中心を決定する。フレーム配置装置は、1以上のレンズフレームの位置を受け取るか、又は1以上のレンズフレームの位置を決定することができる。画像処理装置は、所望の眼鏡フレームに入れて調整・取付する補正レンズの瞳中心及びSEG高さを正確に決定できる。
第1の視点において、本発明に係る眼鏡フレームの調整システムは、対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;該正面及び側面画像中に撮影された眼鏡フレームに関連する瞳の位置を決定するため、該正面及び側面画像を受け取り解析するよう構成される画像処理装置と;該撮像装置が該正面画像と該側面画像を撮影する時に該対象を照明するように構成される照明器と;を含み、該照明器は、該対象フィールド内に位置する対象の角膜上に、所定のパターンを形成するように構成される複数の光源を含む、ことを特徴とする。(形態1)
上記視点において、画像処理装置は、前記所定のパターンに一部基づいて前記瞳の位置を決定することが好ましい。(形態2)
第2の視点において、本発明に係る眼鏡フレームの調整システムは、対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;該正面及び側面画像中に撮影された眼鏡フレームに関連する瞳の位置を決定するため、検出された色に一部基づいて特徴を捉えるとともに、該正面及び側面画像を受け取り解析するよう構成される画像処理装置と;該撮像装置が該正面画像と該側面画像を撮影する時に該対象を照明するように構成される照明器と;を含み、該照明器は、1以上の着色光源を含むことを特徴とする。(形態3)
第3の視点において、本発明に係る眼鏡フレームの調整システムは、対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;該対象フィールド内で角膜上に所定のパターンを形成するように構成される複数の光源と;該正面及び側面画像中に撮影された眼鏡フレームに関連した瞳の位置を、該所定のパターンに一部基づいて決定するため、該正面及び側面画像を解析するように構成される画像処理装置と;を含むことを特徴とする。(形態4)
上記視点において、1以上の前記複数の光源が消灯している間に、前記撮像装置が追加の正面画像を撮影するように構成されることが好ましい。(形態5)
第4の視点において、本発明に係る補正レンズを眼鏡フレームに調整する方法は、眼鏡フレームを着用した対象の正面画像の撮影と;該眼鏡フレームを着用した該対象の側面画像の撮影と;該撮影画像からのレンズフレームの位置の決定と;該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、該対象の該正面画像の撮影には;該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;該複数の光源が照明されている間の該正面画像の撮影と;を含むことを特徴とする。(形態6)
第5の視点において、本発明に係る補正レンズを眼鏡フレームに調整する方法は、眼鏡フレームを着用した対象の正面画像の撮影と;該眼鏡フレームを着用した該対象の側面画像の撮影と;該撮影画像からのレンズフレームの位置の決定と;該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、該対象の該正面画像の撮影には;該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;該複数の光源が照明されている間の該正面画像の撮影と;を含み、該少なくとも片方の瞳の位置の決定には;該対象の角膜画像の1以上の明ピクセルの同定と;該角膜画像の1以上の暗ピクセルの同定と;該1以上の明ピクセルと該1以上の暗ピクセルとの相対関係に一部基づく該瞳の同定と;を含むことを特徴とする。(形態7)
第6の視点において、本発明に係る補正レンズを眼鏡フレームに調整する方法は、眼鏡フレームを着用した対象の正面画像の撮影と;該眼鏡フレームを着用した該対象の側面画像の撮影と;該撮影画像からのレンズフレームの位置の決定と;該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、該対象の該正面画像の撮影には;該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;該複数の光源が照明されている間の該正面画像の撮影と;を含み、該少なくとも片方の瞳の位置の決定には;明ピクセルを同定するための、該撮影された正面画像と所定の明しきい値との比較と;明ブロブを形成するための該明ピクセルの連続性解析の実行と;該明ブロブの寸法に一部基づく該明ブロブの分別と;該撮影された正面画像と所定の暗しきい値との比較と;1以上の暗ブロブを形成するための該暗ピクセルの連続性解析の実行と;該ブロブの寸法に基づく該1以上の暗ブロブの分別と;分別された該暗ブロブの位置及び該明ブロブの位置とに一部基づく前記瞳の位置の決定と;を含むことを特徴とする。(形態8)
第7の視点において、本発明に係る眼鏡フレームの調整システムは、対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;該対象フィールドの少なくとも一部を照明するように構成される複数の着色光源と;該正面及び側面画像中に撮影された眼鏡フレームに関連した瞳の位置を、所定のパターンに一部基づいて決定するため、該正面及び側面画像を解析するよう構成される画像処理装置と;を含むことを特徴とする。(形態9)
上記視点において、1以上の前記着色光源は前記対象フィールド内に基準マークを形成するように構成され、前記画像処理装置は該基準マークに一部基づき前記正面画像を解析することが好ましい。(形態10)
上記視点において、前記対象フィールドの前記側面画像を前記撮像装置に反射するように構成される第1の2色光線分割器と;前記対象フィールドの前記正面画像を前記撮像装置に反射するように構成される第2の2色光線分割器と;
をさらに含むことが好ましい。(形態11)
上記視点において、前記第1の2色光線分割器は、前記第2の2色光線分割器が通す光の波長とは異なる波長の光を通すことが好ましい。(形態12)
上記視点において、前記複数の着色光源は第1の着色光源と第2の着色光源を含み、前記第1の2色光線分割器は該第1の着色光源に対応する波長を反射し、前記第2の2色光線分割器は該第2の着色光源に対応する波長を反射することが好ましい。(形態13)
上記視点において、前記撮像装置は連続的な画像を撮影し、各画像の照明は前記複数の着色光源の1つが対応していることが好ましい。(形態14)
A frame adjustment system and method is disclosed. One or more imaging devices capture two or more images of the spectacle frame worn by the subject. The image is analyzed using automatic image processing techniques to identify the relationship between specific points of interest on the frame and the eye position of the subject (person) and the optical center of the lens. Can be arranged at the correct position of the frame. The image processing apparatus determines the inter-pupil distance and the pupil center from the image. The frame placement device can receive the position of one or more lens frames or determine the position of one or more lens frames. The image processing apparatus can accurately determine the pupil center and the SEG height of the correction lens to be adjusted and mounted in a desired spectacle frame.
In a first aspect, an eyeglass frame adjustment system according to the present invention relates to an imaging device configured to capture front and side images of a target field; and to an eyeglass frame captured in the front and side images An image processing device configured to receive and analyze the front and side images to determine a position of the pupil to be configured; and configured to illuminate the object when the imaging device captures the front and side images An illuminator, wherein the illuminator includes a plurality of light sources configured to form a predetermined pattern on a cornea of an object located in the object field. (Form 1)
From the viewpoint, it is preferable that the image processing apparatus determines the position of the pupil based in part on the predetermined pattern. (Form 2)
In a second aspect, an eyeglass frame adjustment system according to the present invention relates to an imaging device configured to capture front and side images of a target field; and to an eyeglass frame captured in the front and side images An image processing device configured to capture features based in part on the detected color and to receive and analyze the front and side images to determine a position of the pupil to be detected; An illuminator configured to illuminate the object when taking a side image, wherein the illuminator includes one or more colored light sources. (Form 3)
In a third aspect, an eyeglass frame adjustment system according to the present invention includes an imaging device configured to capture front and side images of a target field; and forms a predetermined pattern on the cornea within the target field. Analyzing the front and side images to determine, based in part on the predetermined pattern, a position of a pupil associated with the spectacle frame taken in the front and side images; And an image processing apparatus configured to do so. (Form 4)
In the above viewpoint, it is preferable that the imaging device is configured to capture an additional front image while one or more of the plurality of light sources are turned off. (Form 5)
In a fourth aspect, the method for adjusting the correction lens according to the present invention to a spectacle frame includes: taking a front image of a subject wearing the spectacle frame; taking a side image of the subject wearing the spectacle frame; Determination of the position of the lens frame from the captured image; determination of the position of at least one pupil of the object from the captured image; and the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil Imaging the front image of the object; illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object; and illuminating the plurality of light sources And taking the front image in between. (Form 6)
In a fifth aspect, a method for adjusting a correction lens according to the present invention to a spectacle frame includes: taking a front image of a subject wearing a spectacle frame; taking a side image of the subject wearing the spectacle frame; Determination of the position of the lens frame from the captured image; determination of the position of at least one pupil of the object from the captured image; and the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil Imaging the front image of the object; illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object; and illuminating the plurality of light sources Taking the front image in between; determining the position of the at least one pupil; identifying one or more bright pixels of the corneal image of the subject; identifying one or more dark pixels of the corneal image And said one or more Characterized in that it comprises a; and the identification of some based pupil on the relative relationship between the pixel and said one or more dark pixels. (Form 7)
In a sixth aspect, a method for adjusting a correction lens according to the present invention to a spectacle frame includes: taking a front image of a subject wearing a spectacle frame; taking a side image of the subject wearing the spectacle frame; Determination of the position of the lens frame from the captured image; determination of the position of at least one pupil of the object from the captured image; and the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil Imaging the front image of the object; illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object; and illuminating the plurality of light sources Taking the front image in between; and determining the position of the at least one pupil; comparing the taken front image to a predetermined light threshold to identify a bright pixel; Form a bright blob Performing a continuity analysis of the bright pixels for; sorting the bright blobs based in part on the dimensions of the bright blobs; comparing the captured front image to a predetermined dark threshold; Performing a continuity analysis of the dark pixels to form a dark blob; fractionating the one or more dark blobs based on the size of the blob; and the location of the fractionated dark blob and the location of the light blob Determining the position of the pupil based in part. (Form 8)
In a seventh aspect, the eyeglass frame adjustment system according to the present invention is configured to illuminate at least a part of the target field; an imaging device configured to capture front and side images of the target field; A plurality of colored light sources; and configured to analyze the front and side images to determine, based in part on a predetermined pattern, a position of a pupil associated with the spectacle frame taken in the front and side images And an image processing apparatus. (Form 9)
In the above viewpoint, it is preferable that the one or more colored light sources are configured to form a reference mark in the target field, and the image processing apparatus analyzes the front image based in part on the reference mark. (Form 10)
A first two-color beam splitter configured to reflect the side image of the target field to the imaging device at the viewpoint; and a configuration configured to reflect the front image of the target field to the imaging device A second two-color beam splitter being applied;
It is preferable to further contain. (Form 11)
In the above viewpoint, it is preferable that the first two-color beam splitter transmits light having a wavelength different from the wavelength of the light transmitted by the second two-color beam splitter. (Form 12)
In the above aspect, the plurality of colored light sources include a first colored light source and a second colored light source, the first two-color light beam splitter reflects a wavelength corresponding to the first colored light source, and The two-color beam splitter 2 preferably reflects a wavelength corresponding to the second colored light source. (Form 13)
In the above viewpoint, it is preferable that the imaging device captures continuous images, and illumination of each image corresponds to one of the plurality of colored light sources. (Form 14)

本発明の構造及び操作についての新規な特徴は、本発明自体と同様、詳細な説明に関連する添付図面によって最も良く理解されるであろう。その中では、似た部分は似た参照数字が用いられている。   The novel features of the structure and operation of the present invention, as well as the present invention itself, will be best understood by the accompanying drawings associated with the detailed description. Among them, similar reference numerals are used for similar parts.

図1は波面測定システムであり、一般的に100で示す。図1では、波面測定システム100はスリット102を有する主ハウジング101を含み、主ハウジングはスリット102によって患者(図示せず)の前面を撮影するための1又は2台のカメラ(図示せず)を設置することができるが、患者は仮想の、又は真の固定標的を見ることができる。さらに、それぞれ主ハウジング101から伸び、カメラ(図示せず)用の開口部108を有する右ハウジング104及び左ハウジング106を有する。   FIG. 1 is a wavefront measurement system, generally indicated at 100. In FIG. 1, the wavefront measurement system 100 includes a main housing 101 having a slit 102, and the main housing includes one or two cameras (not shown) for photographing the front surface of a patient (not shown) through the slit 102. Can be placed, but the patient can see a virtual or true fixed target. Further, each has a right housing 104 and a left housing 106 extending from the main housing 101 and having an opening 108 for a camera (not shown).

図2では、図1の波面測定システムの側面図が200で示されている。図2では、患者202が波面測定システムの主ハウジング101とスロット102に相対している。右ハウジング104に設置されたカメラ(図示せず)は、患者202の耳204、鼻206を含む側頭部を撮影する。スロット102に設置されたカメラ(1台又は複数)は、患者202の眼208、そして特に瞳210を撮影する。   In FIG. 2, a side view of the wavefront measurement system of FIG. In FIG. 2, the patient 202 is opposed to the main housing 101 and the slot 102 of the wavefront measurement system. A camera (not shown) installed in the right housing 104 images the temporal region including the ear 204 and the nose 206 of the patient 202. The camera (s) installed in the slot 102 images the eye 208 of the patient 202 and in particular the pupil 210.

図3は、既知の寸法の眼鏡フレーム304を着用した患者302を示す。フレーム304には、鼻モールディング306と耳モールディング308が付いている。鼻モールディング306と耳モールディング308が硬化する前に、それぞれの上に登録標識310,312を付けておく。フレーム304を着用した患者302の画像が波面測定システム100により撮影され、波面測定システム100はテストフレーム304、登録標識310、312又はその両方を、その後の眼鏡調整のため、患者302の頭部及び顔面をより正確に数値化するために使用する。   FIG. 3 shows a patient 302 wearing a spectacle frame 304 of known dimensions. The frame 304 has a nose molding 306 and an ear molding 308. Before the nose molding 306 and the ear molding 308 are cured, registration marks 310 and 312 are put on each. An image of the patient 302 wearing the frame 304 is taken by the wavefront measurement system 100, and the wavefront measurement system 100 captures the test frame 304, registration marks 310, 312, or both, and the head of the patient 302 for subsequent eyeglass adjustment. Used to quantify the face more accurately.

図4は、患者の右側面の画像であり、400で示す。図4では、右の鼻モールディング404に付けられた右レンズ開口部402がある。画像中には、患者の右角膜頂点406及び右耳モールディング408も見える。右鼻モールディング404の登録標識410及び右耳モールディング408の登録標識412は、コンピュータが右鼻モールディング404及び右耳モールディング408の正確な位置を、互いの関係と患者の右角膜頂点406との関係を考慮して決定するのに役立つ。   FIG. 4 is an image of the patient's right side, indicated at 400. In FIG. 4, there is a right lens opening 402 attached to the right nose molding 404. Also visible in the image are the patient's right cornea vertex 406 and right ear molding 408. The registration mark 410 on the right nose molding 404 and the registration sign 412 on the right ear molding 408 allow the computer to determine the exact location of the right nose molding 404 and right ear molding 408 and the relationship between each other and the patient's right cornea vertex 406. Useful for making decisions.

図5は患者の右側の正面画像であり、420で示す。図5では、患者の右の瞳426、右のレンズ開口部402、右鼻モールディング404及び登録標識410が画像中に見える。   FIG. 5 is a front view of the patient's right side, indicated at 420. In FIG. 5, the patient's right pupil 426, right lens opening 402, right nasal molding 404 and registration mark 410 are visible in the image.

図6は患者の左側の正面画像であり、430で示す。図6では、患者の左の瞳427、左のレンズ開口部403、左鼻モールディング405及び登録標識411が画像中に見える。   FIG. 6 is a front view of the patient's left side, indicated by 430. In FIG. 6, the patient's left pupil 427, left lens opening 403, left nasal molding 405, and registration mark 411 are visible in the image.

図7は、患者の左側面の画像であり、440で示す。図7では、左の鼻モールディング405に付けられた左レンズ開口部403がある。画像中には、患者の左角膜頂点407及び左耳モールディング409も見える。左鼻モールディング405の登録標識411及び左耳モールディング409の登録標識413は、コンピュータが左鼻モールディング405及び左耳モールディング409の正確な位置を、互いの関係と患者の左角膜頂点407との関係を考慮して決定するのに役立つ。   FIG. 7 is an image of the patient's left side and is designated 440. In FIG. 7, there is a left lens opening 403 attached to the left nose molding 405. Also visible in the image are the patient's left cornea vertex 407 and left ear molding 409. The registration mark 411 on the left nose molding 405 and the registration mark 413 on the left ear molding 409 indicate that the computer has determined the exact position of the left nose molding 405 and the left ear molding 409 with respect to each other and the patient's left cornea vertex 407. Useful for making decisions.

患者の撮影後、コンピュータは、可塑性鼻パッド306と可塑性耳パッド308を含む、左右の側面画像及びテストフレーム304を着用した2つの正面画像を、波面測定システムから検査されるとともに、保存する。画像から、可塑性鼻パッド306と可塑性耳パッド308の正確な位置が、互いの関係と患者の瞳426,427、角膜頂点406,407及びテストフレーム304との関係を考慮して、決定される。   After the patient is imaged, the computer examines and stores the left and right side images, including the plastic nose pad 306 and the plastic ear pad 308, and the two front images wearing the test frame 304, from the wavefront measurement system. From the images, the exact location of the plastic nose pad 306 and the plastic ear pad 308 is determined taking into account the relationship between each other and the patient's pupils 426, 427, corneal vertices 406, 407 and the test frame 304.

図8は、患者の顔の正面画像であり、450で示す。図8では、顔を撮影するのに1台のカメラを使っており、そのため画像内にレンズ開口部402,403、鼻モールディング404,405、瞳426,427の各双方を含んでいる。   FIG. 8 is a front image of the patient's face, indicated at 450. In FIG. 8, a single camera is used to photograph the face, and therefore, the image includes both lens openings 402 and 403, nose moldings 404 and 405, and pupils 426 and 427, respectively.

図9は、カスタム眼鏡の製造ステップの手順を示すフローチャートであり、500で示す。ステップ502では、画像の撮影のため、患者が波面測定装置を覗き込む。図2のように患者が適切な位置に配置されると、ステップ504で複数のカメラが患者の顔の正面と両側面を撮影するように指示される。カメラの位置は患者の両側面と正面の撮影の必要性にのみ制限されるものであるから、図2に示す配置に限られない。ステップ506は、患者の眼のいろいろな注視角で撮影する必要があることを示す。高次の収差を補正する場合、全ての注視角の光学的アライメントは重要な要請となる。従ってステップ506は、カスタム眼鏡の機能を適切に確保するよう実行されなければならない。追加的にステップ507では、ステップ506で撮影された画像のそれぞれごとに波面測定が要求される。ステップ508では、コンピュータが情報を処理し、出力をステップ510に返す。出力は患者の瞳の位置、瞳中心、瞳間距離、顔の幅、耳の位置、波面測定装置から角膜頂点までの距離、耳から角膜頂点までの距離、及び眼鏡の調整のための患者の頭部と顔の測定に必要な他のパラメータである。この情報、まとめてレンズ装着パラメータと称する、を用いて、ステップ512に示すようにカスタム眼鏡が製造される。   FIG. 9 is a flowchart showing the steps of manufacturing custom eyeglasses, indicated by 500. In step 502, the patient looks into the wavefront measuring apparatus to capture an image. When the patient is in the proper position as in FIG. 2, in step 504, the cameras are instructed to image the front and both sides of the patient's face. Since the position of the camera is limited only to the necessity of photographing the both sides and the front of the patient, it is not limited to the arrangement shown in FIG. Step 506 indicates that it is necessary to image at various gaze angles of the patient's eye. When correcting higher-order aberrations, optical alignment of all gaze angles is an important requirement. Therefore, step 506 must be performed to ensure the proper function of the custom glasses. In addition, in step 507, wavefront measurement is required for each of the images taken in step 506. In step 508, the computer processes the information and returns the output to step 510. Output includes patient's pupil position, pupil center, pupil distance, face width, ear position, distance from wavefront measuring device to corneal apex, distance from ear to corneal apex, and patient's for eyeglass adjustment Other parameters required for head and face measurements. Using this information, collectively referred to as lens mounting parameters, custom glasses are manufactured as shown at step 512.

図10はカスタム眼鏡の製造ステップの代替的手順を示すフローチャートであり、600で示す。ステップ602では、図3に示すように、可塑性の材料が患者の鼻のまわりと耳のまわりの領域に適用される。可塑性材料は、患者の鼻及び耳の周りの正確な表面形状(プロフィール)を得るためのより従来的な方法を可能にする。モールディングを波面測定装置と関係付けるため、ステップ604ではモールディングが硬化する前に登録標識を付けることを要求する。登録標識により、波面測定装置は患者の顔と関連したモールドの計測をすることができる。ステップ606では、既知の寸法のテストフレームを硬化前の可塑性材料に取り付ける。ステップ604の登録標識は、ステップ606でフレームに付けてもいいし、付けなくても良い。ステップ606のフレーム、ステップ602のモールディングは、604の登録標識とともに図3に見える。ステップ608では、図9のステップ502と同様、患者が波面測定装置を覗き込む。ステップ610では、コンピュータが左右の側面画像、及び可塑性パッドを含むテストフレームを着用した患者の1又は2枚の正面画像を保存する。ステップ612で、コンピュータは図9のステップ510に示すパラメータと全く同じ出力を返すが、さらにテストフレームとモールディングに関する情報も加わっている。最後に、ステップ614で、モールディングが複製又は変換(transform)されて、従来型フレームのためのカスタム眼鏡用ヒンジと鼻パッドが作られる。   FIG. 10 is a flow chart illustrating an alternative procedure for manufacturing custom eyeglasses, indicated at 600. In step 602, a plastic material is applied to the area around the patient's nose and ear, as shown in FIG. The plastic material allows a more conventional way to obtain a precise surface profile (profile) around the patient's nose and ears. To associate the molding with the wavefront measuring device, step 604 requires that a registration mark be applied before the molding is cured. The registration mark allows the wavefront measuring device to measure the mold associated with the patient's face. In step 606, a test frame of known dimensions is attached to the uncured plastic material. The registration sign in step 604 may or may not be attached to the frame in step 606. The frame of step 606, the molding of step 602, can be seen in FIG. In step 608, the patient looks into the wavefront measuring apparatus, as in step 502 of FIG. In step 610, the computer saves left and right side images and one or two front images of a patient wearing a test frame including a plastic pad. In step 612, the computer returns exactly the same output as the parameters shown in step 510 of FIG. 9, but with additional information about the test frame and molding. Finally, in step 614, the molding is duplicated or transformed to create a custom spectacle hinge and nose pad for a conventional frame.

好適な実施形態において、種々のモールディングがシリコーンで作られる。しかし、人の頭部に合わせられる任意の材料はこのシステムに適していることが理解される。   In a preferred embodiment, the various moldings are made of silicone. However, it is understood that any material that can be fitted to a person's head is suitable for this system.

図11は、眼鏡測定システムの好適な実施形態であり、700で示す。システム700は、間に人の頭部706が入るスペースがある右側ハウジング704と左側ハウジング(この図では図示せず)を持つ主ハウジング702を含む。患者の耳708は両側のハウジングの間に位置し、患者の眼710は主ハウジング702のスロット711の直前に位置する。   FIG. 11 is a preferred embodiment of a spectacle measurement system, indicated at 700. System 700 includes a main housing 702 having a right housing 704 and a left housing (not shown in this view) with space for a human head 706 therebetween. The patient's ear 708 is located between the housings on both sides, and the patient's eye 710 is located just before the slot 711 in the main housing 702.

示すように、患者は光軸714に沿って現実の固定標的712を見る。光軸714上に、角度可変の2色光線分割器716が配置され、これは患者の眼710からの光の一部を第2の軸718に分割する。第2の軸に沿って通過する光は、1対の結像レンズ720及び722を通過し、ハルトマン−シャックセンサーのような波面センサー724に到達する。   As shown, the patient sees the actual fixed target 712 along the optical axis 714. Located on the optical axis 714 is a variable angle two-color beam splitter 716 that splits a portion of the light from the patient's eye 710 into a second axis 718. Light passing along the second axis passes through a pair of imaging lenses 720 and 722 and reaches a wavefront sensor 724 such as a Hartmann-Shack sensor.

第2の軸718の形成に加えて、光軸上の光の一部を分割して第3の軸730を作るための追加光線分割器726を光軸上に配置することもできる。第3の軸に沿った光は結像レンズ732を通過して、電荷結合素子(CCD)カメラのような撮像装置に到達する。   In addition to forming the second axis 718, an additional beam splitter 726 can be placed on the optical axis to split a portion of the light on the optical axis to create a third axis 730. Light along the third axis passes through the imaging lens 732 and reaches an imaging device such as a charge coupled device (CCD) camera.

眼の分析のために異なる焦点距離で焦点合わせをする場合、第2の光軸740上に仮想の第2の標的742が提供される。第2の光軸を通過する光の一部を波面センサー724に到達させるため、光線分割器716は角度744で軸回転し、また(矢視)746の方向に移動して、分割器716が第2の光軸740上に適切に配置される(点線748で示す)。   A virtual second target 742 is provided on the second optical axis 740 when focusing at different focal lengths for eye analysis. In order to allow a part of the light passing through the second optical axis to reach the wavefront sensor 724, the beam splitter 716 rotates at an angle 744 and moves in the direction of (arrow view) 746, so that the splitter 716 Appropriately located on the second optical axis 740 (indicated by dotted line 748).

眼鏡測定システム700を用いることにより、方法600による眼鏡の製造が容易化される。2つの異なる注視角又は光軸に必要な光学補正を測定するための単一の測定システムを提供することにより、患者のニーズに正確に合った補正レンズを製造できる。   Using the spectacle measurement system 700 facilitates the manufacture of spectacles by the method 600. By providing a single measurement system for measuring the optical correction required for two different gaze angles or optical axes, a correction lens can be manufactured that exactly matches the patient's needs.

レンズによる補正の利益を患者が最適に受けるためには、補正レンズは眼鏡フレームに適切に調整して取り付けなければならない。図12は、自動フレーム調整システム1200の機能的ブロックダイアグラムである。システム1200は、個々の患者とその眼鏡フレームに関して瞳間距離(PD)及びSEG高さを正確に決定する。このような測定値は、たとえば眼鏡フレーム内での補正レンズの正確な位置決めに用いられる。   In order for the patient to optimally benefit from lens correction, the correction lens must be properly adjusted and attached to the spectacle frame. FIG. 12 is a functional block diagram of the automatic frame adjustment system 1200. The system 1200 accurately determines the pupil distance (PD) and SEG height for an individual patient and its spectacle frame. Such a measured value is used for accurate positioning of the correction lens in the spectacle frame, for example.

システム1200は補正レンズを調整することを所望する眼鏡フレームを着用した患者の1以上の画像を撮影するように構成しうる。得られた画像は、例えば、患者とその眼鏡フレームに関する瞳間距離及びSEG高さといった、レンズをフレームに取り付けるための情報を決定するように処理される。   The system 1200 may be configured to take one or more images of a patient wearing a spectacle frame that desires to adjust the correction lens. The resulting image is processed to determine information for attaching the lens to the frame, for example, the pupil distance and SEG height for the patient and their spectacle frame.

システム1200は、患者の頭部を所定の視野におおよそ配置するように構成される患者の位置決め装置1202を含む。位置決め装置1202は、例えばあご乗せ、額当て、耳当て、鼻ブリッジのようなもの又は他の位置決め装置あるいはそれらの組合せでありうる。位置決め装置1202は単に機械的位置決め装置に限らず、音響的、視覚的、又は他の電気的位置決め装置のようなタイプを含み得る。   System 1200 includes a patient positioning device 1202 that is configured to approximately position a patient's head in a predetermined field of view. The positioning device 1202 can be, for example, a chin rest, a forehead rest, an ear rest, a nose bridge, or other positioning device or a combination thereof. The positioning device 1202 is not limited to a mechanical positioning device, but may include types such as acoustic, visual, or other electrical positioning devices.

撮像装置1210は、眼鏡フレームと患者の頭部の一部との関係を示す、患者の頭部の1以上の画像を撮影するように構成できる。照明装置1220は、患者の頭部を照明し、撮影した画像に基準マークを提供又は創出するように構成できる。撮像装置1210と結合した画像処理装置1230は、撮影した画像を解析する。画像処理装置1230は、撮影した画像を検査し、瞳間距離、SEG高さ及び眼鏡フレームのパントスコピック傾斜を決定するように構成される。パントスコピック傾斜とは、フレームの垂直線に対する角度である。それぞれの角膜からレンズまでの距離は通常頂点間距離(vertex distance)といわれるが、これも決定できる。   The imaging device 1210 can be configured to capture one or more images of the patient's head showing the relationship between the spectacle frame and a portion of the patient's head. The illuminator 1220 can be configured to illuminate the patient's head and provide or create a reference mark on the captured image. An image processing device 1230 combined with the imaging device 1210 analyzes the captured image. The image processing device 1230 is configured to inspect the captured image and determine the pupil distance, SEG height, and pantoscopic tilt of the spectacle frame. The pantoscopic inclination is an angle with respect to the vertical line of the frame. The distance from each cornea to the lens is usually referred to as the vertex distance, which can also be determined.

撮影した画像と測定結果は、ディスプレイ1260又は他の、例えば、プリンターや磁気カードライターのような出力装置に出力される。メモリー1250と連絡する処理装置1240は、患者の位置決め装置1202、撮像装置1210、照明装置1220、画像処理装置1230、及びディスプレイ1260に関する機能の一部又は全部を制御できる。さらに、システム1200内の種々の機能ブロックによって実行される機能の一部又は全部は、メモリー1250内に、処理装置が読み取り可能な1以上の指令として保存され、処理装置1240により実行される。例えば、1つの実施形態として、画像処理機能はメモリー1250にソフトウェアとして保存され、画像処理ソフトウェアを実行する処理装置1240により実行される。   The captured image and the measurement result are output to the display 1260 or another output device such as a printer or a magnetic card writer. A processing device 1240 in communication with the memory 1250 can control some or all of the functions associated with the patient positioning device 1202, the imaging device 1210, the illumination device 1220, the image processing device 1230, and the display 1260. In addition, some or all of the functions performed by the various functional blocks in system 1200 are stored in memory 1250 as one or more instructions readable by the processing device and executed by processing device 1240. For example, in one embodiment, the image processing function is stored as software in the memory 1250 and executed by the processing device 1240 that executes the image processing software.

撮像装置1210は1以上のカメラ又は他の撮像機器を含む。カメラはカラーでもモノクロでもありうる。さらに、1以上のカメラはテレセントリックレンズで構成しうる。例えば、撮像装置1210は1以上のカメラ、CMOSカメラ、電荷結合装置、感光性装置等、又は他の撮像装置を含み得る。同様に、照明装置1220は、1以上の光源を含み、1以上の光フィルターを含み得る。例えば、1以上の光源は白熱光源、蛍光光源、ハロゲン光源、キセノン光源、LED光源、ガス放電光源、放射光光源、レーザー光源等、又は他の光源を含みうる。照明装置1220は、白色光源、着色光源、可視光源、不可視光源、又は光源の組合せを含み得る。フィルターは、光学フィルター、傾斜フィルター、偏光フィルター等、又は他のタイプのフィルターを含み得る。1つの実施形態において、処理装置1240は照明装置1220からの照明の時間と強さを制御する。他の実施形態において、1以上の照明装置は1以上の光源を含み得る。いくつかの光源からの光は、光源からの光を着色するために光学フィルターを用いてフィルターされうる。その場合、画像処理装置は、一部は色を検出することで特徴を捉えるように構成されうる。   The imaging device 1210 includes one or more cameras or other imaging devices. Cameras can be either color or monochrome. Further, the one or more cameras can be configured with a telecentric lens. For example, the imaging device 1210 may include one or more cameras, CMOS cameras, charge coupled devices, photosensitive devices, etc., or other imaging devices. Similarly, the lighting device 1220 includes one or more light sources and may include one or more light filters. For example, the one or more light sources may include incandescent light sources, fluorescent light sources, halogen light sources, xenon light sources, LED light sources, gas discharge light sources, synchrotron light sources, laser light sources, or other light sources. The lighting device 1220 may include a white light source, a colored light source, a visible light source, an invisible light source, or a combination of light sources. Filters may include optical filters, tilt filters, polarizing filters, etc., or other types of filters. In one embodiment, the processing device 1240 controls the time and intensity of illumination from the lighting device 1220. In other embodiments, the one or more lighting devices may include one or more light sources. Light from several light sources can be filtered using an optical filter to color the light from the light source. In that case, the image processing apparatus may be configured to capture a feature by partially detecting the color.

図13Aは、図12に示すフレーム調整システムの1つの実施形態である。図13Aは、フレーム調整システム1300と眼鏡フレーム1306を着用した患者1308との関係を示す。患者1308は、額支持具1304を用いて画像撮像装置に相対できる。   FIG. 13A is one embodiment of the frame adjustment system shown in FIG. FIG. 13A shows the relationship between the frame adjustment system 1300 and the patient 1308 wearing the spectacle frame 1306. Patient 1308 can be relative to the imaging device using forehead support 1304.

システム内の撮像装置は、眼鏡フレーム1306を着用した患者ないし対象者1308の画像を撮影する2つのカメラ1310,1312を使用している。カメラ1310,1312は例えば、CMOSカメラでありうる。   The imaging device in the system uses two cameras 1310 and 1312 that capture an image of a patient or subject 1308 wearing a spectacle frame 1306. The cameras 1310 and 1312 can be, for example, CMOS cameras.

第1のカメラ1310は、眼の間の軸を通り対象者の眼に水平な平面での対象者1308の正面画像を撮影するように配置される。第1のカメラ1310は、実質45°に配置された光線分割器1330を通して患者1308を撮影することが望ましい。光線分割器1330により、患者1308はカメラ1310を見ることなく、遠くの物体に焦点を合わせて見ることができる。光線分割器1330を用いることにより、有利にも対象者が装置の外を見て、視野内にある1以上の距離及び/又は位置に置かれた1以上の現実の又は固定された標的に焦点を合わせることができる。種々の距離及び/又は位置にある現実の又は固定された標的を用いることにより、このシステムはいろいろな眼の向きでの瞳の位置を捉え、測定することができる。例えば、第1の瞳判別は、対象者が通常の読書用距離で通常の読書用角度に配置された標的に焦点を合わせている時に撮影された第1の画像セットを用いて決定される。第2の瞳判別は、対象者が遠くの物体に焦点を合わせている時に撮影された第2の画像セットを用いて決定される。   The first camera 1310 is arranged to capture a front image of the subject 1308 on a plane that passes through the axis between the eyes and is horizontal to the subject's eyes. Desirably, the first camera 1310 images the patient 1308 through a beam splitter 1330 located at substantially 45 °. The beam splitter 1330 allows the patient 1308 to focus on a distant object without looking at the camera 1310. By using a beam splitter 1330, the subject can advantageously look out of the device and focus on one or more real or fixed targets placed at one or more distances and / or locations within the field of view. Can be combined. By using real or fixed targets at various distances and / or positions, the system can capture and measure the position of the pupil at various eye orientations. For example, the first pupil discrimination is determined using a first set of images taken when the subject is focused on a target placed at a normal reading angle at a normal reading distance. The second pupil discrimination is determined using a second image set that is taken when the subject is focused on a distant object.

光線分割器1330は、代替的に部分銀鏡、2色フィルター、又は他の光線分割装置でありうる。対象者1308は、このシステムによって第1のカメラ1310で画面を遮られることなく遠くの物体に焦点を合わせることができる。これによって、対象者の眼の配置が近くの視野にある物体によって影響されることがない。そのような近くの視野にある物体は、例えば瞳間距離の決定の正確さに影響を与える。   The beam splitter 1330 can alternatively be a partial silver mirror, a two-color filter, or other beam splitter. The subject 1308 can focus on distant objects without the screen being blocked by the first camera 1310 with this system. This ensures that the subject's eye placement is not affected by objects in the near field of view. Such an object in the near field of view affects, for example, the accuracy of the determination of the inter-pupil distance.

第2のカメラ1312は、第1のカメラ1310によって撮影される画像と実質垂直な画像を撮影するように配置される。第2のカメラ1312は、患者1308の側面画像を撮影するように構成しうる。第2のカメラ1312は、およそ患者の角膜の線上にカメラの軸が来るように配置しうる。   The second camera 1312 is arranged to capture an image substantially perpendicular to the image captured by the first camera 1310. The second camera 1312 may be configured to take a side image of the patient 1308. The second camera 1312 can be positioned so that the camera axis is approximately on the line of the patient's cornea.

任意の第3のカメラ(図示せず)を、患者の両眼の間と一致する垂直線に沿って見下ろすように、上部に設置することができる。1310,1312のいずれのカメラも患者1308の画像を同時に撮影するように構成できる。或いは、1310,1312のカメラは、患者1308の画像を順番に撮影するように構成できる。例えば、1310,1312のカメラがもし順番に画像を撮影する場合、連続画像の間隔は、患者1308の画像間での動きを最小化するよう調整しうる。連続撮影の1つの実施形態として、カメラは毎秒約15コマの速さで撮影を繰り返すことができる。   An optional third camera (not shown) can be placed at the top, looking down along a vertical line that coincides between the patient's eyes. Either of the cameras 1310 and 1312 can be configured to capture an image of the patient 1308 at the same time. Alternatively, the cameras 1310 and 1312 can be configured to take images of the patient 1308 sequentially. For example, if the 1310 and 1312 cameras capture images in order, the interval between successive images can be adjusted to minimize movement between images of the patient 1308. As one embodiment of continuous shooting, the camera can repeat shooting at a rate of about 15 frames per second.

1つの他の実施形態において、1台のカメラが複数の画像を撮影できる。例えば、1台のカメラを所定の画像を撮影する前に移動させるのである。或いは、フィルター及び反射板、及び/又は異なる波長の照明源を用いることにより、1台のカメラで同時に複数の画像を撮影できる。例えば、図13Aに示すシステムでは、1台の広角カメラにより、2つの波長依存性光線分割器と2つの異なる波長の照明を用いて患者1308の正面及び側面画像を同時に撮影できる。1台のカメラでの代替的実施形態が図13Bに示されている。   In one other embodiment, a single camera can capture multiple images. For example, one camera is moved before taking a predetermined image. Alternatively, a plurality of images can be taken simultaneously by a single camera by using a filter and a reflector and / or an illumination source having a different wavelength. For example, in the system shown in FIG. 13A, a single wide-angle camera can simultaneously capture front and side images of a patient 1308 using two wavelength-dependent beam splitters and two different wavelengths of illumination. An alternative embodiment with one camera is shown in FIG. 13B.

フレームの患者1308での位置と角度を決定するために、画像処理装置(図示せず)を用いて画像分析されうる。例えば、カメラ1310で撮影された対象者がソフトウェアのなかで3次元的に配置、測定されるように、較正手順によって複数のカメラの位置、画像取りが規定される。較正手順は、例えばカメラ1310,1312の視野に、例えば較正物や較正用付属品のようなものを配置して撮影することを含み得る。画像処理装置は、撮影されたその較正用付属品の画像を用いて較正される。   Image analysis can be performed using an image processing device (not shown) to determine the position and angle of the frame at the patient 1308. For example, the positions of a plurality of cameras and image capturing are defined by a calibration procedure so that a subject photographed by the camera 1310 is three-dimensionally arranged and measured in software. The calibration procedure may include, for example, placing and photographing something like a calibrator or a calibration accessory in the field of view of the cameras 1310, 1312. The image processing device is calibrated using the captured image of the calibration accessory.

システム内のどのカメラも、他のカメラと関連して較正されるように較正物が撮影される。較正手続は3次元的空間的構成付属品を用いて行われる。カメラの較正によって、各画像に撮影された項目の空間的関係が画像処理装置で決定できる。   The calibration is taken so that every camera in the system is calibrated in relation to the other cameras. The calibration procedure is performed using a three-dimensional spatial configuration accessory. By the calibration of the camera, the spatial relationship between items captured in each image can be determined by the image processing apparatus.

較正用付属品は例えば、既知の寸法の方眼を書いた面を持ちうる。カメラで撮影された画像は、その方眼の寸法で較正される。1つの実施形態において、較正用付属品は既知の寸法の方眼を書いた面を持つ立方体でありうる。立方体の面が第1、第2のカメラ1310、1312の軸に対して約45度の角度になるように置かれる。第2の実施形態として、較正物は既知の寸法を持つ方眼を書いた平面である。この平面は、第1、第2のカメラ1310、1312の軸に対して約45度の角度になるように置かれる。他の実施形態として、較正物は既知の寸法のマークを持つスケールである。このスケールは、第1、第2のカメラ1310、1312の軸に対して約45度の角度になるように置かれる。 The calibration accessory can have, for example, a surface with a grid of known dimensions. Images taken with the camera are calibrated with the dimensions of the grid. In one embodiment, the calibration accessory can be a cube with a surface that has a grid of known dimensions. The cube face is placed at an angle of about 45 degrees with respect to the axes of the first and second cameras 1310 and 1312. As a second embodiment, the calibration object is a plane on which a grid with known dimensions is written. This plane is placed at an angle of about 45 degrees with respect to the axes of the first and second cameras 1310 and 1312. In another embodiment, the calibrator is a scale with marks of known dimensions. This scale is placed at an angle of about 45 degrees with respect to the axes of the first and second cameras 1310 and 1312.

各カメラで撮影された患者1308の画像は画像認識ソフトウェアを用いて解析され、各画像中でのフレーム1306の輪郭と患者の瞳の位置が確定される。画像処理装置は、目に対するフレーム1306の位置を決定し、正面画像から瞳間距離とSEG高さ、側面画像から頂点間距離とパントスコピック傾斜の座標を与える。上部カメラ(図示せず)は、患者1308が第1、第2のカメラ1310、1312との間で位置調整されていることの確認に用いられうる。もしも画像処理装置が、患者1308がカメラに対して位置調整されていないと判断した場合、画像処理装置は、一部上部カメラ画像に基づき、カメラと眼の光軸との角度ずれによる測定値を補正するための追加情報を提供できる。   The image of the patient 1308 taken by each camera is analyzed using image recognition software, and the contour of the frame 1306 and the position of the patient's pupil in each image are determined. The image processing apparatus determines the position of the frame 1306 with respect to the eye, and gives the inter-pupil distance and SEG height from the front image, and the inter-vertex distance and pantoscopic tilt coordinates from the side image. A top camera (not shown) can be used to verify that the patient 1308 is aligned with the first and second cameras 1310, 1312. If the image processing apparatus determines that the patient 1308 has not been aligned with respect to the camera, the image processing apparatus uses a partial upper camera image to obtain a measurement value due to an angular shift between the camera and the optical axis of the eye. Additional information can be provided to correct.

画像処理機能を簡単にするため、このシステムは制御された照明を用いることができる。この制御された照明の目的は2つある。一様な間接照明は、画像処理手順をよりうまくいくようにフレーム1306と顔面を照明できる。患者1308の瞳を識別する画像処理アルゴリズム能力をさらに高めるため、指向性点状光源または基準マークが所定の位置に追加される。点状光源は、特別なパターンで角膜を反射するように構成されうる。パターン認識を用いて、画像処理装置又は画像処理ソフトウェアは各画像中の特別なパターンを探すことができる。例えば、決められたパターンは、正面画像での瞳の外側の2以上の点であり、側面画像での1つの反射光源である。点状光源は、画像中で分光学的特徴により容易に区別できるように特定の色を持ちうる。或いは、光源からの光の色又はスペクトルを変えるため、1以上の光源の前にフィルターを置くこともできる。   In order to simplify the image processing function, the system can use controlled lighting. There are two purposes for this controlled illumination. Uniform indirect illumination can illuminate the frame 1306 and the face to better perform the image processing procedure. In order to further enhance the ability of the image processing algorithm to identify the patient's 1308 pupil, a directional point light source or fiducial mark is added in place. The point light source can be configured to reflect the cornea in a special pattern. Using pattern recognition, an image processing device or image processing software can look for special patterns in each image. For example, the determined pattern is two or more points outside the pupil in the front image, and is one reflected light source in the side image. A point light source can have a specific color so that it can be easily distinguished by spectroscopic features in the image. Alternatively, a filter can be placed in front of one or more light sources to change the color or spectrum of the light from the light sources.

さらに、図12の処理装置1240などでコンピュータ制御し、画像のコマごとに光の点滅を行うこともできる。照明を繰り返すことで1つの画像を照明ONの状態で撮影できる。1以上の照明を、瞳を検知するための画像に映り込まないように、次の画像に行く前に消灯させることもできる。画像間の動きができるだけ小さく、実質的にゼロになるように短時間で連続画像を撮影できる。2つの画像が、光源からの瞳反射マークを判断するため、重ね合わされ又は比較される。   Furthermore, the computer can be controlled by the processing device 1240 in FIG. By repeating the illumination, one image can be taken with the illumination ON. It is also possible to turn off one or more lights before going to the next image so that they are not reflected in the image for detecting the pupil. Continuous images can be taken in a short time so that the movement between images is as small as possible and substantially zero. The two images are overlaid or compared to determine the pupil reflection mark from the light source.

代替的に、点状光源を使わずに均一な光源を用いることができる。図13Aにおいて、第1の光源1342は患者1308の顔の片側に沿って配置されている。第2の光源1344が患者1308の顔の反対側に沿って配置されている。各光源は例えば、LED光源の配列又は白熱ランプでありうる。角膜は光源1342、1344からの光を反射する。球形の角膜は、実質的に均一な光源からでも実質的に局在化した光源からの光を角膜上に反射する。従って、光源、例えば1342,1344は患者1308の各角膜に反射光を生ずる。各反射光は角膜上で実質上点として局在化される。   Alternatively, a uniform light source can be used without using a point light source. In FIG. 13A, a first light source 1342 is disposed along one side of the patient 1308's face. A second light source 1344 is disposed along the opposite side of the patient's 1308 face. Each light source can be, for example, an array of LED light sources or an incandescent lamp. The cornea reflects light from the light sources 1342 and 1344. The spherical cornea reflects light from a substantially localized light source onto the cornea, even from a substantially uniform light source. Thus, a light source, such as 1342, 1344, produces reflected light on each cornea of patient 1308. Each reflected light is substantially localized as a point on the cornea.

画像処理装置(図示せず)は、撮影された画像から角膜上の反射点を検知できる。例えば、画像処理装置は画像中の高輝度の点を探すことができる。一度画像中のこれらの角膜上の点が特定されると、今度は画像処理装置は反射の特定領域内にある瞳の暗い円を探す。画像処理装置は瞳を見分けるのに例えば、連続性(connectivity)又はブロブ(blob、かたまり)解析を用いることができる。画像処理装置は、瞳を探すために画像の2次元検索が行えることが好ましい。こうして画像処理装置は瞳の中心を決定する。   An image processing apparatus (not shown) can detect a reflection point on the cornea from a captured image. For example, the image processing apparatus can search for a high-luminance point in the image. Once these corneal points in the image are identified, the image processing device in turn looks for dark circles of the pupil that are within the specified area of reflection. An image processor can use, for example, connectivity or blob analysis to distinguish pupils. It is preferable that the image processing apparatus can perform a two-dimensional image search to search for a pupil. Thus, the image processing apparatus determines the center of the pupil.

1つの実施形態において、対象者1308はまず眼鏡フレーム1306を着用しないで撮影し、次いで眼鏡フレーム1306を着用して撮影できる。この両画像セットは両画像に共通の特徴又は目印を用いて重ね合わされる。画像処理装置は2枚の画像の違いを検出し、画像からフレーム1306を抽出できる。この技術は、眼鏡(フレーム)1306が様式化した特徴を持つ場合又は画像中に基準マークを作れないデザインの場合に特に有用である。   In one embodiment, the subject 1308 can first shoot without wearing the spectacle frame 1306 and then wear the spectacle frame 1306. Both sets of images are overlaid using features or landmarks common to both images. The image processing apparatus can detect a difference between two images and extract a frame 1306 from the image. This technique is particularly useful when the eyeglasses (frame) 1306 has stylized features or a design that cannot make fiducial marks in the image.

瞳の位置決めに加えて、画像処理装置は左右のフレーム枠(box)を決定する。眼鏡フレーム枠は、例えばSEG高さを決めるのに用いられる。1つの実施形態において、眼鏡フレームの決定がフィルター及びエッジ検出アルゴリズムを用いて自動的に行われうる。或いは、眼鏡フレームの決定は、ユーザーインターフェイスを通じてオペレータが眼鏡フレーム像の外枠がレンズフレームの4辺の端部に接するように画面上をドラッグするか、描くことで行うことができる。例えば、そのシステムはオペレータが患者1308の画像を見て、マウスまたはその他の入力装置を用いて各レンズフレームの周囲に外枠を描くことができる。   In addition to pupil positioning, the image processing device determines left and right frame boxes. The spectacle frame frame is used, for example, to determine the SEG height. In one embodiment, eyeglass frame determination may be performed automatically using filters and edge detection algorithms. Alternatively, the spectacle frame can be determined by dragging or drawing on the screen through the user interface so that the outer frame of the spectacle frame image is in contact with the ends of the four sides of the lens frame. For example, the system allows an operator to view an image of patient 1308 and draw an outer frame around each lens frame using a mouse or other input device.

図13Bは1台のカメラ1310を用いる代替的フレーム調整器の実施形態1300の機能的ブロックダイアグラムである。この機能的ブロックダイアグラムは、患者又は対象者1308と1台のカメラによるフレーム調整器1300との上から見た位置関係を示す。   FIG. 13B is a functional block diagram of an alternative frame adjuster embodiment 1300 that uses a single camera 1310. This functional block diagram shows the positional relationship seen from above the patient or subject 1308 and the frame adjuster 1300 with one camera.

カメラ1310は、患者1308がカメラ1310を視界に入れることなく遠くに焦点を合わせることができるようにするために用いる複数の2色光線分割器1352、1354及び広波長帯光線分割器1330を通して、患者1308を撮影するよう構成される。カメラ1310は、患者1308の視軸と実質平行な視軸に合わせて配置される。カメラ1310は、カメラ1310の視野内に置かれた第1の2色光線分割器1352を用いて患者1308の側面画像を撮影できる。第1の2色光線分割器1352は、例えばカメラの視軸に対して実質45度の角度で配置されうる。第1の2色光線分割器1352はまた、患者の頭部の側面から患者の視軸に対して実質垂直に伸びる軸におおよそ沿って配置されうる。   The camera 1310 passes through a plurality of two-color beam splitters 1352 and 1354 and a wide wavelength beam splitter 1330 that are used to allow the patient 1308 to focus far away without putting the camera 1310 into view. 1308 is configured to shoot. The camera 1310 is arranged in accordance with a visual axis that is substantially parallel to the visual axis of the patient 1308. The camera 1310 can take a side image of the patient 1308 using a first two-color beam splitter 1352 placed in the field of view of the camera 1310. The first two-color beam splitter 1352 can be disposed at an angle of substantially 45 degrees with respect to the visual axis of the camera, for example. The first dichroic beam splitter 1352 can also be positioned approximately along an axis extending from the side of the patient's head substantially perpendicular to the patient's visual axis.

第2の2色光線分割器1354は、カメラ1310の視軸に対して約45度の角度で配置され、第1の2色光線分割器1352の背後に配置される。患者1308の正面画像は、患者1308の前面に置かれた広波長帯光線分割器1330で反射される。広波長帯光線分割器1330からの正面画像は、第2の2色光線分割器1354で反射され、第1の2色光線分割器1352を通過してカメラ1310で撮影される。   The second two-color beam splitter 1354 is disposed at an angle of about 45 degrees with respect to the visual axis of the camera 1310 and is disposed behind the first two-color beam splitter 1352. The front image of the patient 1308 is reflected by a wide wavelength band beam splitter 1330 placed in front of the patient 1308. A front image from the wide wavelength band beam splitter 1330 is reflected by the second two-color beam splitter 1354, passes through the first two-color beam splitter 1352, and is captured by the camera 1310.

患者1308を照明するため、2つの光源1346,1348が用いられる。1つの実施形態において、第1の光源1348は着色光である。ここで、着色光とは、白色光源よりも限られた波長帯(スペクトル)の光を意味する。第1の光源1348は、例えば、患者1308を実質赤色波長内の光スペクトルで照明する赤色光源又は実質赤色光を発する光源でありうる。第1の2色光線分割器1352は、光源1348中のスペクトルに対応するスペクトル光をフィルター、反射し、所定の波長よりも長い又は短い波長の光を通過する。従って、例えば、第1の2色光線分割器1352は、赤色光を反射し緑色光を通過する赤色光線分割器で構成される。こうしてカメラ1310は、2色光線分割器1352、1354と連携して光源の波長に対応した画像のみを撮影する。   Two light sources 1346 and 1348 are used to illuminate the patient 1308. In one embodiment, the first light source 1348 is colored light. Here, colored light means light in a wavelength band (spectrum) that is more limited than that of a white light source. The first light source 1348 can be, for example, a red light source that illuminates the patient 1308 with a light spectrum within a substantially red wavelength or a light source that emits substantially red light. The first two-color beam splitter 1352 filters and reflects the spectrum light corresponding to the spectrum in the light source 1348 and passes light having a wavelength longer or shorter than a predetermined wavelength. Therefore, for example, the first two-color beam splitter 1352 is configured by a red beam splitter that reflects red light and passes green light. Thus, the camera 1310 captures only an image corresponding to the wavelength of the light source in cooperation with the two-color beam splitters 1352 and 1354.

同様に第2の光源1346も、緑色光源又は実質緑色光を発する光源のような着色光源でありうる。第2の2色光線分割器1354は、光源1346中のスペクトルに対応する緑色光のみを反射するように構成される緑色光線分割器でありうる。第2の2色光線分割器1354は他の全ての波長の光を通過するように構成される。   Similarly, the second light source 1346 may be a colored light source such as a green light source or a light source that emits substantially green light. Second dichroic beam splitter 1354 may be a green beam splitter configured to reflect only green light corresponding to the spectrum in light source 1346. Second dichroic beam splitter 1354 is configured to pass light of all other wavelengths.

光源1346、1348は緑と赤の光源である必要はなく、どのようなタイプの着色光源、あるいは可視スペクトル、不可視スペクトル又はこれらの組合せの光を発する狭い波長帯の光源でも良い。 The light sources 1346, 1348 need not be green and red light sources, but may be any type of colored light source or a narrow wavelength band light source that emits light in the visible spectrum, invisible spectrum, or a combination thereof.

こうしてカメラ1310は、赤色光線分割器1352で反射された側面画像と緑色光線分割器1354で反射された正面画像との合成物である画像を撮影する。画像処理装置(図示せず)は撮影された画像のスペクトルに一部基づいて画像処理するように構成されうる。従って、画像の赤色部分を分析することにより、画像処理装置は側面画像を分離することができる。同様に、緑色画像を分析することにより、画像処理装置(図示せず)は正面画像を分析できる。或いは、正面画像と側面画像は順番に撮影され、別々の画像として分析することもできる。   In this way, the camera 1310 captures an image that is a composite of the side image reflected by the red light splitter 1352 and the front image reflected by the green light splitter 1354. An image processing device (not shown) can be configured to perform image processing based in part on the spectrum of the captured image. Therefore, by analyzing the red portion of the image, the image processing apparatus can separate the side images. Similarly, by analyzing the green image, an image processing device (not shown) can analyze the front image. Alternatively, the front image and the side image can be taken sequentially and analyzed as separate images.

さらに、カメラ1310は2つの画像を連続して撮影できる。最初は赤色光源1348のみで照明し、赤色光線分割器1352で反射され、カメラ1310は側面画像を撮影する。2番目の画像は緑色光源1346を用いて緑色光線分割器1354で反射された正面画像をカメラ1310で撮影する。こうして連続撮影法は白黒カメラのみならずカラーカメラでも利用できる。   Furthermore, the camera 1310 can continuously capture two images. Initially, the light is illuminated only by the red light source 1348 and reflected by the red light splitter 1352, and the camera 1310 captures a side image. For the second image, a front image reflected by the green beam splitter 1354 is captured by the camera 1310 using the green light source 1346. In this way, the continuous shooting method can be used not only for black and white cameras but also for color cameras.

図14から16は、撮影された画像と、所望の情報を得るための画像解析プロセスを示す。図では画面に映した撮影画像を示しているが、画像はオペレータに表示する必要はなく、システムは画像を表示することなく画像解析を行うことができる。   14 to 16 show a captured image and an image analysis process for obtaining desired information. Although the photographed image shown on the screen is shown in the figure, the image need not be displayed to the operator, and the system can perform image analysis without displaying the image.

図14は、図13に示すフレーム調整システムを用いて撮影された対象者の側面画像1402と正面画像1404の表示画面を示す。画面には、画像処理装置が瞳の位置を決定する時に加えた基準マークを含む。さらに、画像には瞳と決定した領域を示す輝点が含まれる。基準マークと輝点は画像処理装置によって加えられたものであり、撮影した画像の一部ではない。   FIG. 14 shows a display screen of a side image 1402 and a front image 1404 of the subject imaged using the frame adjustment system shown in FIG. The screen includes a reference mark added when the image processing apparatus determines the position of the pupil. Further, the image includes a bright spot indicating the determined area as a pupil. The reference mark and the bright spot are added by the image processing apparatus and are not a part of the photographed image.

正面画像1404には画像処理装置によって加えられた基準マークと、瞳と同定された範囲が示されている。画像処理装置は、画像中の第1の光源からの反射を解析して、対象者の右目中にある第1の基準マーク1412の位置を決定する。画像処理装置は、例えば対象者の角膜の光源反射に相当する光の強度ピークを探知することができる。同様に、画像処理装置は対象者の角膜上の第2の光源の反射に相当する第2の基準マーク1414の位置を決定できる。画像処理装置は基準マークを右目の瞳1420を決定するのに用いることができる。例えば、画像処理装置は、基準マークを暗い瞳1420の範囲を探すための連続性又はブロブ解析を始めるインデックスとして用いることができる。右の瞳1420は対象者の右目の中の高輝度範囲(highlighted area)として示されている。   A front image 1404 shows a reference mark added by the image processing apparatus and a range identified as a pupil. The image processing apparatus analyzes the reflection from the first light source in the image and determines the position of the first reference mark 1412 in the right eye of the subject. The image processing apparatus can detect, for example, a light intensity peak corresponding to the light source reflection of the subject's cornea. Similarly, the image processing apparatus can determine the position of the second reference mark 1414 corresponding to the reflection of the second light source on the subject's cornea. The image processing device can use the reference mark to determine the pupil 1420 for the right eye. For example, the image processing device can use the fiducial mark as an index to begin continuity or blob analysis to search the dark pupil 1420 range. The right pupil 1420 is shown as a highlighted area in the subject's right eye.

同様に、画像処理装置は対象者の左目の中の基準マークの位置を探すことができる。画像処理装置は、左の角膜上の第1の光源の反射に相当する第1の基準マーク1432を決定する。画像処理装置はまた、左の角膜上の第2の光源の反射に相当する第2の基準マーク1434を決定する。2つの基準マーク1432,1434は、画像処理装置が左の瞳1440を決定するために用いられる。左の瞳1440は対象者の左目の中の高輝度範囲として示されている。   Similarly, the image processing apparatus can search for the position of the reference mark in the left eye of the subject. The image processing apparatus determines a first reference mark 1432 corresponding to the reflection of the first light source on the left cornea. The image processing device also determines a second fiducial mark 1434 corresponding to the reflection of the second light source on the left cornea. The two reference marks 1432 and 1434 are used by the image processing apparatus to determine the left pupil 1440. The left pupil 1440 is shown as a high brightness range in the left eye of the subject.

画像処理装置は側面画像1402についても同様に解析を行う。画像処理装置は、角膜上の光源反射に相当する基準マーク1452,1454の位置を決定する。画像処理装置は、瞳と角膜1456の縁を決定するために基準マーク1452,1454を用いる。   The image processing apparatus similarly analyzes the side image 1402. The image processing apparatus determines the positions of the reference marks 1452 and 1454 corresponding to the light source reflection on the cornea. The image processing device uses fiducial marks 1452 and 1454 to determine the edge of the pupil and cornea 1456.

図15は、フレーム配置器により決定されたフレームの輪郭を含む正面画像の画面図である。フレーム配置器は例えば、図12の画像処理装置の一部でありうる。 FIG. 15 is a screen view of a front image including the outline of the frame determined by the frame placement device. The frame positioner can be, for example, a part of the image processing apparatus of FIG.

正面画像1502は、所望のフレーム1510を着用した対象者の像を含む。フレームの位置は、フレーム中の補正レンズの位置決めの一部として配置される。1つの実施形態において、画像処理装置が左右のレンズフレームの位置を決定する。画像処理装置はフレームの位置を、例えば、ソーベル(Sobel)又はロバーツ(Roberts)タイプのエッジ検出フィルターを用いて連続性又はブロブ解析とともに、決定できる。画像処理装置は、例えば対象者の鼻柱の近くの画像部分にある、高レベルのコントラストを決定できる。画像処理装置は、フレームのその他の部分を決定するため、エッジ検出フィルター及び連続性又はブロブ解析を使用できる。一度画像処理装置がフレームの輪郭を決定すると、今度は各レンズフレームを輪郭付ける枠1530の位置を決定できる。画像処理装置は、レンズフレームの各側面に接する辺1532,1534,1536,1538を持つ枠1530を決定する。画像処理装置は、例えば、フレームのブロブ解析に一部基づいたエッジ検出を使用できる。   Front image 1502 includes an image of a subject wearing desired frame 1510. The position of the frame is arranged as part of the positioning of the correction lens in the frame. In one embodiment, the image processing device determines the positions of the left and right lens frames. The image processing device can determine the position of the frame, for example with continuity or blob analysis, using an edge detection filter of the Sobel or Roberts type. The image processing device can determine a high level of contrast, for example in an image portion near the subject's nose column. The image processor can use edge detection filters and continuity or blob analysis to determine other parts of the frame. Once the image processing device has determined the outline of the frame, it is now possible to determine the position of the frame 1530 that outlines each lens frame. The image processing apparatus determines a frame 1530 having sides 1532, 1534, 1536, and 1538 that are in contact with the side surfaces of the lens frame. The image processing device can use edge detection based in part on blob analysis of the frame, for example.

例えば、画像処理装置は左目の補正レンズのレンズフレームの位置を決定できる。画像処理装置は、レンズフレームの中心部の内側の端を決定することで、枠1530の左端1536を決定する。同様にして、画像処理装置は枠1530の上端1532、下端1534、右端1538を決定できる。次いで画像処理装置は右目の補正レンズフレームについても同じプロセスを繰り返す。   For example, the image processing apparatus can determine the position of the lens frame of the correction lens for the left eye. The image processing apparatus determines the left end 1536 of the frame 1530 by determining the inner end of the center portion of the lens frame. Similarly, the image processing apparatus can determine the upper end 1532, the lower end 1534, and the right end 1538 of the frame 1530. The image processing device then repeats the same process for the right eye correction lens frame.

代替的実施形態において、対象者の2枚の正面画像が撮影される。最初は眼鏡フレームを着用しない対象者が撮影される。2枚目は所望の眼鏡フレームを着用した対象者が撮影される。画像処理装置は2枚の撮影画像を例えば相関解析を用いて心合わせ配列(align)する。次いで画像処理装置は、2枚の画像の違いを取り出して眼鏡フレーム像を抽出する。こうして画像処理装置は上記のプロセスを経てレンズフレームの位置を決定できる。   In an alternative embodiment, two front images of the subject are taken. First, a subject who does not wear a spectacle frame is photographed. The second photograph is taken of a subject wearing a desired spectacle frame. The image processing apparatus aligns the two photographed images using, for example, correlation analysis. Next, the image processing apparatus extracts a difference between the two images and extracts a spectacle frame image. Thus, the image processing apparatus can determine the position of the lens frame through the above process.

さらに別の実施形態において、撮影された正面画像1502はオペレータに表示される。レンズフレームの位置はオペレータからの入力で同定される。フレーム調整(適合)システムはオペレータからレンズフレームの位置を同定する入力を受け取ることになる。1つの実施形態において、オペレータはレンズフレームに接する辺を持つ枠1530をドラッグするマウスを用いる。オペレータは左右のレンズフレームの入力を繰り返す。   In yet another embodiment, the captured front image 1502 is displayed to the operator. The position of the lens frame is identified by input from the operator. The frame adjustment (adaptation) system will receive input from the operator identifying the position of the lens frame. In one embodiment, the operator uses a mouse to drag a frame 1530 having sides that touch the lens frame. The operator repeats input of the left and right lens frames.

図16は所望の眼鏡フレームを着用した対象者の側面画像1602を表示した画面である。1つの実施形態において、画像処理装置はフレームのパントスコピック傾斜を自動的に決定する。これまでと同様、画像処理装置は1以上の撮影画像を解析してパントスコピック傾斜を自動的に決定できるのである。   FIG. 16 is a screen displaying a side image 1602 of a subject wearing a desired spectacle frame. In one embodiment, the image processing device automatically determines the pantoscopic tilt of the frame. As before, the image processing apparatus can automatically determine the pantoscopic tilt by analyzing one or more captured images.

1つの実施形態において、画像処理装置は画像中の眼鏡フレームを同定するためにエッジ検出フィルター及び連続性又はブロブ解析を用いる。そして画像処理装置は、フレームの前面の接線と垂直からの角度を測定してフレームのパントスコピック傾斜を決定する。   In one embodiment, the image processing device uses edge detection filters and continuity or blob analysis to identify eyeglass frames in the image. Then, the image processing apparatus measures the angle from the tangent to the front surface of the frame and perpendicularly to determine the pantoscopic inclination of the frame.

第2の実施形態において、眼鏡フレームを着用した画像と着用しない画像の2枚の対象者の側面画像が撮影される。2枚の画像は調整配列され、眼鏡フレームを同定するために画像の違いが決定される。画像処理装置はエッジ検出及びブロブ解析を用いてフレームの輪郭を同定し、パントスコピック傾斜を規定する接線を決定する。   In the second embodiment, two side images of the subject are photographed: an image with a spectacle frame worn and an image with no eyeglass frame. The two images are adjusted and the difference between the images is determined to identify the spectacle frame. The image processor uses edge detection and blob analysis to identify the outline of the frame and determine the tangent that defines the pantoscopic slope.

さらに他の実施形態において、フレーム調整システムは側面画像1602をオペレータに表示する。オペレータはコンピュータマウスなどの入力装置を用いてフレームの接線を引くか又は位置調整する。接線はパントスコピック傾斜を規定する。フレーム調整システムはパントスコピック傾斜を決定するための線に対応するデータを受け取る。   In yet another embodiment, the frame adjustment system displays a side image 1602 to the operator. The operator draws or adjusts the tangent of the frame using an input device such as a computer mouse. The tangent defines the pantoscopic slope. The frame adjustment system receives data corresponding to the line for determining the pantoscopic tilt.

図17は、図12のフレーム調整システムが行うフレーム調整プロセス1700のフローチャートである。プロセス1700は、所望の眼鏡フレームを着用した対象者の正面及び側面画像を撮影することから始まる。図12及び13に示すシステムでは、1台以上のカメラが対象者の正面及び側面画像を撮影するために、処理装置又は制御装置で制御されうる。処理装置は撮影中に照明器の1以上の光源も制御できる。   FIG. 17 is a flowchart of a frame adjustment process 1700 performed by the frame adjustment system of FIG. Process 1700 begins with taking front and side images of a subject wearing the desired eyeglass frame. In the system shown in FIGS. 12 and 13, one or more cameras can be controlled by a processing device or control device to capture front and side images of the subject. The processing device can also control one or more light sources of the illuminator during imaging.

正面及び側面画像が撮影されると、プロセス1700はブロック1710に進み、フレーム、特に左右のレンズフレームの位置が決められる。図12のシステムでは、フレーム配置器は画像処理装置の中に統合されている。フレーム配置器は左右のレンズフレームを決定し、またフレームのパントスコピック傾斜も決定する。   Once the front and side images are taken, process 1700 proceeds to block 1710 where the position of the frame, particularly the left and right lens frames, is determined. In the system of FIG. 12, the frame positioner is integrated in the image processing apparatus. The frame positioner determines the left and right lens frames and also determines the pantoscopic tilt of the frame.

フレームが位置決めされると、画像処理装置はブロック1720に進み、画像中の瞳の位置を決める。次に画像処理装置はブロック1730に進み、瞳間距離及びSEG高さといったフレーム調整情報が決定される。情報はオペレータに報告又は表示されうる。   Once the frame is positioned, the image processing apparatus proceeds to block 1720 and determines the position of the pupil in the image. The image processing apparatus then proceeds to block 1730 where frame adjustment information such as inter-pupil distance and SEG height is determined. Information can be reported or displayed to the operator.

1つの実施形態において、画像撮影、画像処理及びパラメータ決定は例えば独立したユニットにおいて、対象者と同一の場所で実行される。他の実施形態において、画像撮影は対象者と同じ場所で行い、画像処理、パラメータ決定及び報告は対象者とは離れた場所で行われる。この離れた実施形態において、撮影は検眼士の事務所で行い、画像処理はレンズが製造され眼鏡に組み立てられる、離れた場所で実施することができる。   In one embodiment, image capture, image processing and parameter determination are performed at the same location as the subject, for example in a separate unit. In other embodiments, image capture is performed at the same location as the subject, and image processing, parameter determination, and reporting are performed at a location remote from the subject. In this remote embodiment, imaging can be done at the optometrist's office and image processing can be performed at a remote location where the lens is manufactured and assembled into eyeglasses.

図18は画像処理装置が行う瞳位置決めプロセス1720の詳細なフローチャートである。プロセス1720は、画像処理装置が1以上の所定のしきい値に対して撮影画像を比較するブロック1802に始まる。カラー画像システムでは、画像処理装置は赤、緑、青のピクセルを1以上の所定のしきい値と比較し、明ピクセルの存在を決定する。所定のしきい値を超えるピクセルは、明ピクセルと決定される。   FIG. 18 is a detailed flowchart of a pupil positioning process 1720 performed by the image processing apparatus. Process 1720 begins at block 1802 where the image processing device compares the captured image against one or more predetermined thresholds. In a color image system, the image processing device compares red, green, and blue pixels with one or more predetermined thresholds to determine the presence of a bright pixel. Pixels that exceed a predetermined threshold are determined to be bright pixels.

次いで画像処理装置はブロック1810に進み、連続性又はブロブ解析が画像中の明点を決定するために行われる。画像処理装置は、所定のしきい値を超える各ピクセルについて連続性解析を行うことができる。画像処理装置は連続性解析に基づき、1以上のブロブを生成する。   The image processor then proceeds to block 1810 where continuity or blob analysis is performed to determine the bright spot in the image. The image processing apparatus can perform continuity analysis for each pixel that exceeds a predetermined threshold. The image processing device generates one or more blobs based on the continuity analysis.

画像処理装置は次にブロック1820に進み、同定されたブロブが寸法及び形状の特徴に基づき分別される。1以上の光源の位置が既知であるので、角膜上の反射のおよその形状と位置は既知である。分別基準にあてはまらない形状及び位置のブロブは、対象者の角膜からの反射光に対応しないとして除去される。   The image processor then proceeds to block 1820 where the identified blobs are sorted based on size and shape characteristics. Since the position of one or more light sources is known, the approximate shape and position of the reflection on the cornea is known. Blobs having shapes and positions that do not meet the classification criteria are removed as not corresponding to the reflected light from the subject's cornea.

次に画像処理装置はブロック1830に進み、暗ピクセルのしきい値分別を行う。先と同様、カラー画像であれば赤、緑、青のピクセルを1以上の所定の暗度しきい値と比較する。   The image processing apparatus then proceeds to block 1830 and performs dark pixel threshold discrimination. As before, for a color image, the red, green and blue pixels are compared to one or more predetermined darkness thresholds.

画像処理装置は次にブロック1840に進み、同定された暗ピクセルについて連続性又はブロブ解析が行われる。各暗ピクセルは暗ブロブを規定する。1以上の暗ピクセルが同一の暗ブロブに属しうる。   The image processor then proceeds to block 1840 where continuity or blob analysis is performed on the identified dark pixels. Each dark pixel defines a dark blob. One or more dark pixels can belong to the same dark blob.

暗ブロブの規定後、画像処理装置はブロック1850に進み、暗ブロブを、例えば寸法、形状の特徴によって分別する。画像処理装置は、瞳を画像中の所定の領域に見られる、大体暗い円形をしたものとして同定する。そのような基準に該当しない暗ブロブは除かれる。   After the dark blobs are defined, the image processing apparatus proceeds to block 1850 and sorts the dark blobs according to, for example, size and shape characteristics. The image processing apparatus identifies the pupil as a roughly dark circle that can be seen in a predetermined region in the image. Dark blobs that do not meet such criteria are excluded.

ブロック1860に進み、画像処理装置は明ブロブ解析と暗ブロブ解析に基づき、瞳の位置を決定する。明点は光源の反射に対応する。同様に暗点は瞳に対応する。角膜の球形状と、対象者に対する光源の配置から、明点反射が瞳領域の近傍に来るようになる。画像処理装置は、瞳を同定するために明るい光反射を基準マークとして用いることができる。こうして画像処理装置は、瞳位置を決定するために基準マークに加えて2次元形状解析を用いることができる。瞳が同定されると、プロセス1720は1890で終了となる。   Proceeding to block 1860, the image processing device determines the position of the pupil based on the bright blob analysis and the dark blob analysis. The bright spot corresponds to the reflection of the light source. Similarly, the dark spot corresponds to the pupil. Due to the spherical shape of the cornea and the arrangement of the light source with respect to the subject, the bright spot reflection comes close to the pupil region. The image processing apparatus can use bright light reflection as a reference mark to identify the pupil. Thus, the image processing apparatus can use two-dimensional shape analysis in addition to the reference mark to determine the pupil position. Once the pupil is identified, process 1720 ends at 1890.

図17,18のフローチャートは、特定の順番での操作ステップを示している。しかし、そのようなステップの順はフローチャートに示す順に必ずしも限定されるわけではないことが理解される。例えば、フレーム位置決めステップ1710と瞳位置決めステップ1720はこの順で行う必要はなく、逆の順でも良い。さらに、明暗ブロブ解析は図18に示す順でなくとも可能である。図17,18に示すフローチャートは順番の変更、追加、削除を含む変形が可能である。   The flowcharts of FIGS. 17 and 18 show the operation steps in a specific order. However, it is understood that the order of such steps is not necessarily limited to the order shown in the flowchart. For example, the frame positioning step 1710 and the pupil positioning step 1720 need not be performed in this order, and may be performed in the reverse order. Furthermore, the light / dark blob analysis is possible even if it is not in the order shown in FIG. The flowcharts shown in FIGS. 17 and 18 can be modified including order change, addition, and deletion.

こうして、眼鏡フレーム調整のためのフレーム調整システム及び方法が開示される。このシステムは所望の眼鏡フレームを着用した対象者の1以上の正面及び側面画像を撮影する。このシステムは、対象者の瞳位置を同定するための2次元画像処理アルゴリズムを用いる画像処理装置を用いる。さらに、画像処理装置は、レンズフレームとフレームのパントスコピック傾斜を同定する2次元画像処理技術を用いる。このシステムは、フレームにレンズを適切に調整するために、特定の眼鏡フレーム内のレンズのSEG高さと瞳間距離を決定できる。   Thus, a frame adjustment system and method for eyeglass frame adjustment is disclosed. The system takes one or more front and side images of a subject wearing a desired spectacle frame. This system uses an image processing apparatus that uses a two-dimensional image processing algorithm to identify the pupil position of the subject. Furthermore, the image processing apparatus uses a two-dimensional image processing technique for identifying the lens frame and the pantoscopic tilt of the frame. This system can determine the SEG height and interpupillary distance of the lenses within a particular spectacle frame in order to properly adjust the lenses to the frame.

これまで述べたように、フレーム調整システム及びその方法は詳細に開示され、十分機能できるものであるが、記述内容は本発明の実施形態の単なる例示であり、添付の請求項に記載した内容とは別に、ここに示した構造や設計の具体例に限定することを意図したものではないことが理解される。   As described above, the frame adjustment system and method are disclosed in detail and can function satisfactorily, but the description is merely an example of an embodiment of the present invention and is described in the appended claims. It is understood that the invention is not intended to be limited to the specific examples of construction and design shown herein.

波面測定システムの好ましい実施形態の鳥瞰図である。1 is a bird's eye view of a preferred embodiment of a wavefront measuring system. 波面測定システムの側面図である。It is a side view of a wavefront measuring system. テストフレームとモールディングを着用した患者の側面図である。It is a side view of a patient wearing a test frame and a molding. テストフレームとモールディングを着用した患者の右側面図である。It is a right view of a patient wearing a test frame and a molding. テストフレームとモールディングを着用した患者の右正面図である。It is a right front view of a patient wearing a test frame and a molding. テストフレームとモールディングを着用した患者の左正面図である。It is a left front view of a patient wearing a test frame and a molding. テストフレームとモールディングを着用した患者の左側面図である。It is a left view of a patient wearing a test frame and a molding. テストフレームとモールディングを着用した患者の正面図である。It is a front view of a patient wearing a test frame and a molding. カスタム眼鏡の製造ステップの手順を示すフローチャートである。It is a flowchart which shows the procedure of the manufacturing step of custom spectacles. カスタム眼鏡の製造ステップの代替手順を示すフローチャートである。It is a flowchart which shows the alternative procedure of the manufacturing step of custom spectacles. システム内部の測定装置を示した波面測定システムの側面図である。It is a side view of the wavefront measuring system which showed the measuring device inside a system. フレーム調整システムの機能的ブロックダイアグラムである。It is a functional block diagram of a frame adjustment system. フレーム調整システムの実施形態の機能的ブロックダイアグラムである。2 is a functional block diagram of an embodiment of a frame adjustment system. フレーム調整システムの実施形態の機能的ブロックダイアグラムである。2 is a functional block diagram of an embodiment of a frame adjustment system. 撮影された側面及び正面画像の表示画面である。It is the display screen of the imaged side and front image. 撮影された正面画像にフレーム配置器を表示した画面である。It is the screen which displayed the frame placement device on the photoed front image. 撮影された側面画像にフレーム配置器を表示した画面である。It is the screen which displayed the frame placement device on the taken side image. フレーム調整方法のフローチャートである。It is a flowchart of a frame adjustment method. 瞳位置決め画像処理方法のフローチャートである。It is a flowchart of a pupil positioning image processing method.

Claims (14)

眼鏡フレームの調整システムであって;
対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;
該正面及び側面画像中に撮影された眼鏡フレームに関連する瞳の位置を決定するため、該正面及び側面画像を受け取り解析するよう構成される画像処理装置と;
該撮像装置が該正面画像と該側面画像を撮影する時に該対象を照明するように構成される照明器と;を含み、
該照明器は、該対象フィールド内に位置する対象の角膜上に、所定のパターンを形成するように構成される複数の光源を含む、ことを特徴とするシステム。
An eyeglass frame adjustment system;
An imaging device configured to capture front and side images of the target field;
An image processing device configured to receive and analyze the front and side images to determine the position of the pupil associated with the spectacle frame taken in the front and side images;
An illuminator configured to illuminate the object when the imaging device captures the front image and the side image;
The illuminator includes a plurality of light sources configured to form a predetermined pattern on a target cornea located within the target field .
前記画像処理装置は、前記所定のパターンに一部基づいて前記瞳の位置を決定する、請求項1に記載のシステム。  The system according to claim 1, wherein the image processing apparatus determines the position of the pupil based in part on the predetermined pattern. 眼鏡フレームの調整システムであって;An eyeglass frame adjustment system;
対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;  An imaging device configured to capture front and side images of the target field;
該正面及び側面画像中に撮影された眼鏡フレームに関連する瞳の位置を決定するため、検出された色に一部基づいて特徴を捉えるとともに、該正面及び側面画像を受け取り解析するよう構成される画像処理装置と;  Configured to capture a feature based in part on the detected color and to receive and analyze the front and side images to determine the position of the pupil associated with the spectacle frame taken in the front and side images An image processing device;
該撮像装置が該正面画像と該側面画像を撮影する時に該対象を照明するように構成される照明器と;を含み、  An illuminator configured to illuminate the object when the imaging device captures the front image and the side image;
該照明器は、1以上の着色光源を含む、システム。  The illuminator includes one or more colored light sources.
眼鏡フレームの調整システムであって;
対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;
該対象フィールド内で角膜上に所定のパターンを形成するように構成される複数の光源と;
該正面及び側面画像中に撮影された眼鏡フレームに関連した瞳の位置を、該所定のパターンに一部基づいて決定するため、該正面及び側面画像を解析するように構成される画像処理装置と;
を含むシステム。
An eyeglass frame adjustment system;
An imaging device configured to capture front and side images of the target field;
A plurality of light sources configured to form a predetermined pattern on the cornea within the target field;
An image processing device configured to analyze the front and side images to determine, based in part on the predetermined pattern, the position of a pupil associated with the spectacle frames taken in the front and side images; ;
Including system.
1以上の前記複数の光源が消灯している間に、前記撮像装置が追加の正面画像を撮影するように構成される、請求項に記載のシステム。The system of claim 4 , wherein the imaging device is configured to capture additional front images while one or more of the plurality of light sources are turned off. 補正レンズを眼鏡フレームに調整する方法であって;Adjusting the correction lens to the spectacle frame;
眼鏡フレームを着用した対象の正面画像の撮影と;  Taking a front image of the subject wearing a spectacle frame;
該眼鏡フレームを着用した該対象の側面画像の撮影と;  Taking a side image of the subject wearing the spectacle frame;
該撮影画像からのレンズフレームの位置の決定と;  Determining the position of the lens frame from the captured image;
該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;  Determining the position of at least one pupil of the object from the captured image;
該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、  Determining the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil;
該対象の該正面画像の撮影には;  For taking the front image of the object;
該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;  Illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object;
該複数の光源が照明されている間の該正面画像の撮影と;  Taking the front image while the plurality of light sources are illuminated;
を含む方法。Including methods.
補正レンズを眼鏡フレームに調整する方法であって;Adjusting the correction lens to the spectacle frame;
眼鏡フレームを着用した対象の正面画像の撮影と;  Taking a front image of the subject wearing a spectacle frame;
該眼鏡フレームを着用した該対象の側面画像の撮影と;  Taking a side image of the subject wearing the spectacle frame;
該撮影画像からのレンズフレームの位置の決定と;  Determining the position of the lens frame from the captured image;
該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;  Determining the position of at least one pupil of the object from the captured image;
該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、  Determining the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil;
該対象の該正面画像の撮影には;  For taking the front image of the object;
該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;  Illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object;
該複数の光源が照明されている間の該正面画像の撮影と;を含み、  Taking the front image while the plurality of light sources are illuminated; and
該少なくとも片方の瞳の位置の決定には;  For determining the position of the at least one pupil;
該対象の角膜画像の1以上の明ピクセルの同定と;  Identifying one or more bright pixels of the subject's cornea image;
該角膜画像の1以上の暗ピクセルの同定と;  Identifying one or more dark pixels of the cornea image;
該1以上の明ピクセルと該1以上の暗ピクセルとの相対関係に一部基づく該瞳の同定と;  Identifying the pupil based in part on a relative relationship between the one or more bright pixels and the one or more dark pixels;
を含む方法。Including methods.
補正レンズを眼鏡フレームに調整する方法であって;Adjusting the correction lens to the spectacle frame;
眼鏡フレームを着用した対象の正面画像の撮影と;  Taking a front image of the subject wearing a spectacle frame;
該眼鏡フレームを着用した該対象の側面画像の撮影と;  Taking a side image of the subject wearing the spectacle frame;
該撮影画像からのレンズフレームの位置の決定と;  Determining the position of the lens frame from the captured image;
該撮影画像からの該対象の少なくとも片方の瞳の位置の決定と;  Determining the position of at least one pupil of the object from the captured image;
該レンズフレームの位置及び該瞳の位置に一部基づく該補正レンズの瞳中心の決定と;を含み、  Determining the pupil center of the correction lens based in part on the position of the lens frame and the position of the pupil;
該対象の該正面画像の撮影には;  For taking the front image of the object;
該対象の少なくとも片方の角膜上にパターンを形成する複数の光源による該対象の照明と;  Illuminating the object with a plurality of light sources forming a pattern on at least one cornea of the object;
該複数の光源が照明されている間の該正面画像の撮影と;を含み、  Taking the front image while the plurality of light sources are illuminated; and
該少なくとも片方の瞳の位置の決定には;  For determining the position of the at least one pupil;
明ピクセルを同定するための、該撮影された正面画像と所定の明しきい値との比較と;  Comparing the captured front image with a predetermined light threshold to identify light pixels;
明ブロブを形成するための該明ピクセルの連続性解析の実行と;  Performing a continuity analysis of the bright pixels to form a bright blob;
該明ブロブの寸法に一部基づく該明ブロブの分別と;  Fractionating the bright blobs based in part on the dimensions of the bright blobs;
該撮影された正面画像と所定の暗しきい値との比較と;  Comparing the taken front image with a predetermined dark threshold;
1以上の暗ブロブを形成するための該暗ピクセルの連続性解析の実行と;  Performing a continuity analysis of the dark pixels to form one or more dark blobs;
該ブロブの寸法に基づく該1以上の暗ブロブの分別と;  Fractionating the one or more dark blobs based on the size of the blob;
分別された該暗ブロブの位置及び該明ブロブの位置とに一部基づく前記瞳の位置の決定と;  Determining the position of the pupil based in part on the position of the dark blob and the position of the bright blob that have been sorted;
を含む方法。Including methods.
眼鏡フレームの調整システムであって;
対象フィールドの正面及び側面画像を撮影するように構成される撮像装置と;
該対象フィールドの少なくとも一部を照明するように構成される複数の着色光源と;
該正面及び側面画像中に撮影された眼鏡フレームに関連した瞳の位置を、所定のパターンに一部基づいて決定するため、該正面及び側面画像を解析するよう構成される画像処理装置と;
を含むシステム。
An eyeglass frame adjustment system;
An imaging device configured to capture front and side images of the target field;
A plurality of colored light sources configured to illuminate at least a portion of the target field;
An image processing device configured to analyze the front and side images to determine, based in part on a predetermined pattern, a position of a pupil associated with the spectacle frame taken in the front and side images;
Including system.
1以上の前記着色光源は前記対象フィールド内に基準マークを形成するように構成され、前記画像処理装置は該基準マークに一部基づき前記正面画像を解析する、請求項に記載のシステム。The system of claim 9 , wherein one or more of the colored light sources are configured to form a fiducial mark in the target field, and the image processing apparatus analyzes the front image based in part on the fiducial mark. 前記対象フィールドの前記側面画像を前記撮像装置に反射するように構成される第1の2色光線分割器と;
前記対象フィールドの前記正面画像を前記撮像装置に反射するように構成される第2の2色光線分割器と;
をさらに含む、請求項9又は10に記載のシステム。
A first two-color beam splitter configured to reflect the side image of the target field to the imaging device;
A second two-color beam splitter configured to reflect the front image of the target field to the imaging device;
The system according to claim 9 or 10 , further comprising:
前記第1の2色光線分割器は、前記第2の2色光線分割器が通す光の波長とは異なる波長の光を通す、請求項11に記載のシステム。The system of claim 11 , wherein the first two-color beam splitter passes light of a wavelength different from the wavelength of light that the second two-color beam splitter passes. 前記複数の着色光源は第1の着色光源と第2の着色光源を含み、前記第1の2色光線分割器は該第1の着色光源に対応する波長を反射し、前記第2の2色光線分割器は該第2の着色光源に対応する波長を反射する、請求項11又は12に記載のシステム。The plurality of colored light sources include a first colored light source and a second colored light source, the first two-color light beam splitter reflects a wavelength corresponding to the first colored light source, and the second two colors 13. A system according to claim 11 or 12 , wherein the beam splitter reflects a wavelength corresponding to the second colored light source. 前記撮像装置は連続的な画像を撮影し、各画像の照明は前記複数の着色光源の1つが対応している、請求項13に記載のシステム。The system according to claim 13 , wherein the imaging device captures continuous images, and illumination of each image corresponds to one of the plurality of colored light sources.
JP2006549287A 2004-01-13 2004-12-14 Custom glasses manufacturing method Active JP4750721B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/756,243 US7434931B2 (en) 2001-10-25 2004-01-13 Custom eyeglass manufacturing method
US10/756,243 2004-01-13
PCT/US2004/041977 WO2005071468A1 (en) 2004-01-13 2004-12-14 Custom eyeglass manufacturing method

Publications (2)

Publication Number Publication Date
JP2007522496A JP2007522496A (en) 2007-08-09
JP4750721B2 true JP4750721B2 (en) 2011-08-17

Family

ID=34807466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006549287A Active JP4750721B2 (en) 2004-01-13 2004-12-14 Custom glasses manufacturing method

Country Status (4)

Country Link
US (1) US7434931B2 (en)
EP (1) EP1714184B1 (en)
JP (1) JP4750721B2 (en)
WO (1) WO2005071468A1 (en)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6682195B2 (en) * 2001-10-25 2004-01-27 Ophthonix, Inc. Custom eyeglass manufacturing method
US20040004633A1 (en) * 2002-07-03 2004-01-08 Perry James N. Web-based system and method for ordering and fitting prescription lens eyewear
JP2005214701A (en) * 2004-01-28 2005-08-11 Topcon Corp Lensmeter
DE102005003699B4 (en) 2005-01-26 2018-07-05 Rodenstock Gmbh Apparatus and method for determining optical parameters of a user; A computer program product
DE102005063668B3 (en) 2005-01-26 2018-09-13 Rodenstock Gmbh Apparatus and method for determining optical parameters of a user; A computer program product
FR2892529B1 (en) 2005-10-21 2008-02-01 Interactif Visuel Systeme Ivs SYSTEM FOR AIDING THE CORRECTION OF THE VIEW
US7726811B2 (en) 2006-02-14 2010-06-01 Lai Shui T Subjective wavefront refraction using continuously adjustable wave plates of Zernike function
US7699471B2 (en) * 2006-02-14 2010-04-20 Lai Shui T Subjective refraction method and device for correcting low and higher order aberrations
DE102006033491A1 (en) * 2006-07-19 2008-01-31 Rodenstock Gmbh Device and method for determining a wearing position of spectacles, computer program device
DE102006033490A1 (en) * 2006-07-19 2008-01-31 Rodenstock Gmbh Apparatus and method for determining a position of a spectacle lens relative to a spectacle frame, computer program device
US7959284B2 (en) * 2006-07-25 2011-06-14 Lai Shui T Method of making high precision optics having a wavefront profile
FR2906047B1 (en) 2006-09-14 2008-11-07 Essilor Int METHOD AND DEVICE FOR DETERMINING THE ORIENTATION OF A PERFECT OPHTHALMIC LENS AND METHOD FOR OPTICALLY DESIGNING THE CORRECTING LENS
US8340802B2 (en) * 2007-01-30 2012-12-25 Zvi Feldman Systems and methods for producing clip-ons for a primary eyewear
US20080201641A1 (en) * 2007-02-21 2008-08-21 Yiling Xie Method And The Associated Mechanism For 3-D Simulation Stored-Image Database-Driven Spectacle Frame Fitting Services Over Public Network
GB0713461D0 (en) * 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
WO2009024681A2 (en) * 2007-07-26 2009-02-26 Essilor International (Compagnie Générale d'Optique) Method for measuring at least one geometrical/physiognomical parameter for the fitting of a sight correcting glasses frame on the face of a user
FR2920549B1 (en) * 2007-08-30 2009-11-27 Essilor Int METHOD FOR MEASURING AT LEAST ONE GEOMETRIC-PHYSIOMICAL PARAMETER FOR IMPLANTATION OF A FRAME OF VISUAL CORRECTION GLASSES ON THE FACE OF A BEARER
JP2009148418A (en) 2007-12-20 2009-07-09 Hoya Corp Measuring apparatus for glasses
DE102008018198A1 (en) * 2008-04-10 2009-10-15 Optik Schlemmer E.K. Spectacle-frame method for preparing a user-dependent adjustment to spectacle frames measures the angle of tilt for a user's/wearer's head during a sequence of vision calibration
FR2931001B1 (en) * 2008-05-06 2010-09-17 Xavier Arthur Carriou METHOD FOR MEASURING THE POSITION OF THE EYE IN RELATION TO THE FRAME OF EYEWEAR
DE102008039416B4 (en) * 2008-08-13 2020-06-18 Carl Zeiss Vision Gmbh Method and device for checking the centering of glasses worn by a spectacle wearer
DE102009010467A1 (en) * 2009-02-26 2010-09-09 Carl Zeiss Vision Gmbh Method and device for determining the position of the ocular pivot point
KR100949743B1 (en) 2009-03-20 2010-03-25 동국대학교 산학협력단 Apparatus and method for wearable eye tracking having goggle typed
EP2468015B1 (en) * 2009-08-17 2019-01-16 Harman International Industries, Inc. Ear sizing system and method
US9050029B2 (en) 2010-01-06 2015-06-09 Harman International Industries, Inc. Image capture and earpiece sizing system and method
DE102010007922A1 (en) * 2010-02-12 2011-08-18 Carl Zeiss Vision GmbH, 73430 Device for determining distance between pupils of person, has image recording device receiving image of portion of face of person, and data processing device determining distance between pupils of person by triangulation method
JP2011209530A (en) * 2010-03-30 2011-10-20 Seiko Epson Corp Wearing condition parameter measurement device for spectacle lens and wearing condition parameter measurement method for spectacle lens
US9405364B2 (en) * 2010-10-29 2016-08-02 IT-Universitetet i København Method of determining reflections of light
FR2971861B1 (en) * 2011-02-21 2013-02-22 Essilor Int METHOD FOR DETERMINING AT LEAST ONE GEOMETRIC-PHYSIOMY PARAMETER ASSOCIATED WITH THE MOUNTING OF AN OPHTHALMIC LENS IN A BEARER-FITTED GOGGING MOUNT
US20130042489A1 (en) * 2011-08-16 2013-02-21 Oded Katzman Device and method for measuring pantoscopic tilt
US20130132898A1 (en) * 2011-11-17 2013-05-23 Michael F. Cuento System, Method and Software Product in Eyewear Marketing, Fitting Out and Retailing
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US20130262259A1 (en) * 2012-04-02 2013-10-03 Yiling Xie Method and System for Making Up Spectacles and Eyesight Testing through Public Network
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
US20130322683A1 (en) * 2012-05-30 2013-12-05 Joel Jacobs Customized head-mounted display device
KR101300671B1 (en) * 2012-07-06 2013-08-27 (주)뷰아이텍 Method for measuring parameter for manufacturing spectacle lens, and device for implementing the same
JP6020577B2 (en) * 2012-09-19 2016-11-02 株式会社ニコン Measuring system, measuring method, spectacle lens design method, spectacle lens selection method, and spectacle lens manufacturing method
WO2014046206A1 (en) 2012-09-19 2014-03-27 株式会社ニコン Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
BR112015008660A2 (en) * 2012-10-16 2017-07-04 3M Innovative Properties Co methods and devices for assessing ocular device fit
JP5279153B1 (en) * 2012-10-19 2013-09-04 正一 中村 Pupil position measuring method and bilateral lens manufacturing method
US9429773B2 (en) 2013-03-12 2016-08-30 Adi Ben-Shahar Method and apparatus for design and fabrication of customized eyewear
US9804410B2 (en) 2013-03-12 2017-10-31 Adi Ben-Shahar Method and apparatus for design and fabrication of customized eyewear
FR3006776B1 (en) * 2013-06-07 2016-10-21 Essilor Int METHOD FOR DETERMINING AT LEAST ONE VALUE OF A CUSTOMIZATION PARAMETER OF A VISUAL COMPENSATION EQUIPMENT
US20160171596A1 (en) * 2013-07-26 2016-06-16 Essilor International (Compagnie Generale D'optique Self-service prescription eyewear kiosk
JP6099232B2 (en) * 2013-08-22 2017-03-22 ビスポーク, インコーポレイテッド Method and system for creating custom products
JP6364733B2 (en) * 2013-09-27 2018-08-01 株式会社ニデック Glasses wearing parameter measuring apparatus, glasses wearing parameter measuring program
WO2015046466A1 (en) * 2013-09-27 2015-04-02 株式会社ニデック Parameter measurement device for eyeglass fitting and parameter measurement program for eyeglass fitting
JP6277649B2 (en) * 2013-09-27 2018-02-14 株式会社ニデック Glasses wearing parameter measuring apparatus, glasses wearing parameter measuring program
JP6179320B2 (en) * 2013-09-27 2017-08-16 株式会社ニデック Eyeglass device parameter measurement imaging device
JP6515542B2 (en) 2014-02-27 2019-05-22 株式会社ニデック Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program
JP6680207B2 (en) * 2014-06-30 2020-04-15 凸版印刷株式会社 Eye-gaze measuring system, eye-gaze measuring method, and program
JP6510630B2 (en) 2015-03-10 2019-05-08 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd Glasses wearing parameter measurement system, program for measurement, method of measurement thereof, and method of manufacturing spectacle lens
US10330958B2 (en) 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
US9885887B2 (en) * 2015-04-22 2018-02-06 Kurt Matthew Gardner Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium
US20170168323A1 (en) * 2015-04-22 2017-06-15 Kurt Matthew Gardner Method of Determining Eyeglass Fitting Measurements from an Image by Executing Computer-Executable Instructions Stored on a Non-Transitory Computer-Readable Medium
FR3038076A1 (en) * 2015-06-25 2016-12-30 Frederic Clodion DISPOSITION OF MEASUREMENTS AND VIEWS IN 3 D
FR3038077A1 (en) * 2015-06-26 2016-12-30 Frederic Clodion DEVICE FOR 3D VIEWING AND FACE MEASUREMENT FOR THE PRODUCTION OF SUNGLASSES OR SUNGLASSES, TO MEASURE
FR3046469A1 (en) * 2016-01-04 2017-07-07 Frederic Clodion DESIGNING NEW PROGRESSIVE OR UNIFOCAL GLASS GEOMETRIES BASED ON NEW CALCULATIONS, INCORPORATING NEW PARAMETERS, FRONT CURVATURE RAYS
US10969301B2 (en) 2016-02-12 2021-04-06 Shamir Optical Industry Ltd. Self-administrated testing of eyeglasses
WO2017205903A1 (en) * 2016-06-01 2017-12-07 Vidi Pty Ltd An optical measuring and scanning system and methods of use
US10048516B2 (en) * 2016-12-08 2018-08-14 Perfect Vision Technology (Hk) Ltd. Methods and systems for measuring human faces and eyeglass frames
US10082682B2 (en) 2016-12-08 2018-09-25 Perfect Vision Technology (Hk) Ltd. Methods and systems for measuring human faces for fitting, selecting, and optimizing eyeglasses
US10222634B2 (en) 2017-07-07 2019-03-05 Optinno B.V. Optical measurement aid device
US11579472B2 (en) 2017-12-22 2023-02-14 Optikam Tech, Inc. System and method of obtaining fit and fabrication measurements for eyeglasses using depth map scanning
US10620454B2 (en) * 2017-12-22 2020-04-14 Optikam Tech, Inc. System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images
US10831042B2 (en) 2018-05-03 2020-11-10 Optikam Tech, Inc. System and method for obtaining and utilizing measurements to enable customized eyewear to be purchased online
CN113645894A (en) * 2019-07-26 2021-11-12 谷歌有限责任公司 Method and system for automatic pupil detection
EP3876026A1 (en) * 2020-03-06 2021-09-08 Carl Zeiss Vision International GmbH Method and devices for determining inclination angle
US20220390771A1 (en) * 2021-06-07 2022-12-08 Blink Technologies Inc. System and method for fitting eye wear

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) * 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detecting method and eye position detector
WO2003079097A1 (en) * 2001-10-25 2003-09-25 Ophthonix, Inc. Custom eyeglass manufacturing method

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3973837A (en) 1971-05-04 1976-08-10 Page Louis J Contact lenses
US3933411A (en) 1971-07-23 1976-01-20 Winner Albert E Hydrophilic contact lens with embedded stabilizing means
US4268133A (en) 1978-07-14 1981-05-19 Bausch & Lomb Incorporated Preferential orientation of contact lenses
US4666236A (en) 1982-08-10 1987-05-19 Omron Tateisi Electronics Co. Optical coupling device and method of producing same
GB2153550B (en) 1984-01-31 1987-10-21 Essilor Int Apparatus for measuring the parameters required when mounting ophthalmic lenses upon a spectacle frame
JPS60175009A (en) 1984-02-21 1985-09-09 Nippon Sheet Glass Co Ltd Production of plastic optical element having refractive index distribution
CS246212B1 (en) 1984-06-18 1986-10-16 Otto Wichterle Toric contact lens with centre of gravity shifted towards its border,mould for its production and method of moulds production
US4996123A (en) 1986-07-11 1991-02-26 Matsushita Electric Industrial Co., Ltd. Optically oriented photoresist pattern forming method using organic crystal in photoresist layer with specified refracting indices formula
US4869587A (en) 1987-12-16 1989-09-26 Breger Joseph L Presbyopic contact lens
US5266352A (en) 1989-05-18 1993-11-30 At&T Bell Laboratories Devices featuring silicone elastomers
US5100589A (en) 1989-12-04 1992-03-31 Lockheed Missiles & Space Company, Inc. Optical method for altering molecular alignment in selected regions of a non-linear optical polymeric structure
DE4002029A1 (en) 1990-01-24 1991-07-25 Peter Hoefer METHOD FOR THE PRODUCTION OF CONTACT LENSES AND CONTACT LENS PRODUCTION SYSTEM
EP0472384A3 (en) 1990-08-16 1992-10-28 Yasuhiro Koike Plastic optical fiber and its manufacturing method
US5116684A (en) 1990-09-28 1992-05-26 Corning Incorporated Composite ophthalmic lens
US5198844A (en) 1991-07-10 1993-03-30 Johnson & Johnson Vision Products, Inc. Segmented multifocal contact lens
US5786883A (en) 1991-11-12 1998-07-28 Pilkington Barnes Hind, Inc. Annular mask contact lenses
FR2687482A1 (en) 1992-02-17 1993-08-20 Corning Inc Novel composite ophthalmic lenses and their manufacture
US5288221A (en) 1992-05-18 1994-02-22 Essilor Of America, Inc. Apparatus for making ophthalmic lenses
DE69316792T2 (en) 1992-06-17 1998-05-28 Nitto Denko Corp A method of producing polymerization or cross-linked rate-distributed products and a method of producing a lens, lens assembly or optical fiber by this method
US5433810A (en) 1992-09-16 1995-07-18 Abrams; Herbert M. Lamination of composite eyeglass lenses
US5872613A (en) 1992-11-23 1999-02-16 Innotech, Inc. Method of manufacturing contact lenses
US5528321A (en) 1992-11-23 1996-06-18 Innotech, Inc. Method of manufacturing contact lenses
US5448312A (en) 1992-12-09 1995-09-05 Johnson & Johnson Vision Products, Inc. Pupil-tuned multifocal ophthalmic lens
US5771088A (en) 1993-03-27 1998-06-23 Pilkington Barnes Hind, Inc. Contact lens designed to accommodate and correct for the effects of presbyopia
US5406340A (en) 1993-06-30 1995-04-11 Hoff; Leslie J. Infant-to-toddler eye wear including head straps
NL9301863A (en) 1993-10-28 1995-05-16 Meurs Optiek B V Van Contact lens with an optical zone with at least one focus.
US5585968A (en) 1993-12-01 1996-12-17 International Business Machines Corporation Optical elements having regions of different indices of refraction and method of fabricating the same
EP1315006A1 (en) 1994-06-22 2003-05-28 Fujitsu Limited Method of producing optical waveguide system, optical device and optical coupler employing the same, optical network and optical circuit board
US5617154A (en) 1994-10-28 1997-04-01 Flexlens Light filtering contact lens
US5650837A (en) 1995-05-04 1997-07-22 Johnson & Johnson Vision Products, Inc. Rotationally stable contact lens designs
US5715031A (en) 1995-05-04 1998-02-03 Johnson & Johnson Vision Products, Inc. Concentric aspheric multifocal lens designs
US5929969A (en) 1995-05-04 1999-07-27 Johnson & Johnson Vision Products, Inc. Multifocal ophthalmic lens
US6274288B1 (en) 1995-06-12 2001-08-14 California Institute Of Technology Self-trapping and self-focusing of optical beams in photopolymers
US5608471A (en) 1995-07-03 1997-03-04 Westcon Contact Lens Co., Inc. Soft, bifocal contact lens
US5864379A (en) 1996-09-27 1999-01-26 Dunn; Stephen A. Contact lens and process for fitting
US5592248A (en) 1995-11-16 1997-01-07 Norton; Ross A. Computerized method for fitting eyeglasses
US5835192A (en) 1995-12-21 1998-11-10 Johnson & Johnson Vision Products, Inc. Contact lenses and method of fitting contact lenses
US5880809A (en) 1996-12-30 1999-03-09 Scientific Optics, Inc. Contact lens
US5861934A (en) 1996-05-06 1999-01-19 Innotech, Inc. Refractive index gradient lens
JP3422183B2 (en) * 1996-08-22 2003-06-30 トヨタ自動車株式会社 Eye detection method for face images
US5777719A (en) 1996-12-23 1998-07-07 University Of Rochester Method and apparatus for improving vision and the resolution of retinal images
AU753161B2 (en) 1997-05-16 2002-10-10 Hoya Corporation System for making spectacles to order
GB9710781D0 (en) 1997-05-23 1997-07-23 Ng Trustees & Nominees Ltd Decentred bifocal contact lenses
US6109749A (en) 1997-11-04 2000-08-29 Bernstein; Paul R. Soft bifocal contact lenses
US6089711A (en) 1997-11-05 2000-07-18 Blankenbecler; Richard Radial gradient contact lenses
DE19752729A1 (en) 1997-11-28 1999-06-02 Walter Bergner Exact matching finishing of spectacle lenses
JP4023902B2 (en) 1998-04-10 2007-12-19 株式会社メニコン Toric multifocal lens
US5956183A (en) 1998-05-26 1999-09-21 Epstein; Saul Field-customizable variable focal length lens
US6286957B1 (en) * 1998-06-30 2001-09-11 Pda Advanced Optic Systems, Ltd. Device for measuring the patient's pupils locations, and system and method utilizing the same for adjusting progressive lenses for the patient's spectacles
US6240226B1 (en) 1998-08-13 2001-05-29 Lucent Technologies Inc. Polymer material and method for optical switching and modulation
US6450642B1 (en) 1999-01-12 2002-09-17 California Institute Of Technology Lenses capable of post-fabrication power modification
US6176580B1 (en) 1999-04-02 2001-01-23 Johnson & Johnson Vision Care, Inc. Method of designing and fitting contact lenses taking into account material properties of the lenses
WO2001002896A1 (en) 1999-07-02 2001-01-11 E-Vision, L.L.C. System, apparatus, and method for reducing birefringence
US6319433B1 (en) 1999-09-14 2001-11-20 Invicta Corporation Composite ophthalmic lens remolding system for forming a lens therein
DE10007705A1 (en) 2000-02-19 2001-09-06 Keune Thomas Method for matching spectacles to potential wearer via Internet, in which wearer records images of themselves wearing reference marker, using digital camera connected to computer and these are transmitted to server
EP1136869A1 (en) 2000-03-17 2001-09-26 Kabushiki Kaisha TOPCON Eyeglass frame selecting system
EP1299787A4 (en) 2000-05-18 2005-02-02 Visionix Ltd Spectacles fitting system and fitting methods useful therein
KR20030036192A (en) 2000-05-23 2003-05-09 파마시아 그로닌겐 비.브이. Methods of obtaining ophthalmic lenses providing the eye with reduced aberrations
US6554425B1 (en) 2000-10-17 2003-04-29 Johnson & Johnson Vision Care, Inc. Ophthalmic lenses for high order aberration correction and processes for production of the lenses
US6827444B2 (en) 2000-10-20 2004-12-07 University Of Rochester Rapid, automatic measurement of the eye's wave aberration
IL143503A0 (en) 2001-05-31 2002-04-21 Visionix Ltd Aberration correction spectacle lens

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) * 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detecting method and eye position detector
WO2003079097A1 (en) * 2001-10-25 2003-09-25 Ophthonix, Inc. Custom eyeglass manufacturing method

Also Published As

Publication number Publication date
JP2007522496A (en) 2007-08-09
US7434931B2 (en) 2008-10-14
EP1714184A1 (en) 2006-10-25
WO2005071468A1 (en) 2005-08-04
EP1714184B1 (en) 2016-11-23
US20040189935A1 (en) 2004-09-30

Similar Documents

Publication Publication Date Title
JP4750721B2 (en) Custom glasses manufacturing method
US7845797B2 (en) Custom eyeglass manufacturing method
US10437327B2 (en) Eye tracking device and method for operating an eye tracking device
JP6498606B2 (en) Wearable gaze measurement device and method of use
JP6833674B2 (en) Determination of user data based on the image data of the selected spectacle frame
JP6159263B2 (en) Optical measurement apparatus and method for adjusting illumination characteristics and capturing at least one parameter in at least one eye
EP3371781B1 (en) Systems and methods for generating and using three-dimensional images
US10441168B2 (en) Computer-implemented method for detecting a corneal vertex
US10775647B2 (en) Systems and methods for obtaining eyewear information
CN112835213B (en) Device for determining centering parameters for adjusting eyeglasses
JP5289962B2 (en) Vision correction support system
CN111160136A (en) Standardized 3D information acquisition and measurement method and system
KR20150102941A (en) Method for helping determine the vision parameters of a subject
US11397339B2 (en) Computer-implemented method for determining centring parameters
CN111803025B (en) Portable cornea topographic map acquisition system
CN113711003A (en) Method and apparatus for measuring the local refractive power and/or the power profile of an ophthalmic lens
CN211085115U (en) Standardized biological three-dimensional information acquisition device
JP2021505253A (en) Methods and devices for identifying the reference head position of the subject
US20220398781A1 (en) System and method for digital measurements of subjects
CN115135227A (en) Ophthalmoscope for examining eyes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100726

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110519

R150 Certificate of patent or registration of utility model

Ref document number: 4750721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250