WO2014061294A1 - 瞳孔位置測定方法及び両用レンズの作製方法 - Google Patents

瞳孔位置測定方法及び両用レンズの作製方法 Download PDF

Info

Publication number
WO2014061294A1
WO2014061294A1 PCT/JP2013/059026 JP2013059026W WO2014061294A1 WO 2014061294 A1 WO2014061294 A1 WO 2014061294A1 JP 2013059026 W JP2013059026 W JP 2013059026W WO 2014061294 A1 WO2014061294 A1 WO 2014061294A1
Authority
WO
WIPO (PCT)
Prior art keywords
pupil position
subject
pupil
distribution range
power distribution
Prior art date
Application number
PCT/JP2013/059026
Other languages
English (en)
French (fr)
Inventor
中村 正一
Original Assignee
日本エー・シー・ピー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本エー・シー・ピー株式会社 filed Critical 日本エー・シー・ピー株式会社
Priority to CN201380001727.5A priority Critical patent/CN103890641A/zh
Priority to KR1020137029852A priority patent/KR20150073818A/ko
Publication of WO2014061294A1 publication Critical patent/WO2014061294A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters

Definitions

  • the present invention relates to a pupil position measuring method and a method for producing a bilateral lens using this pupil position measuring method.
  • the dual-use lens is a lens in which a plurality of portions having different powers are formed on a single lens, and there are a perspective lens, a middle lens, and a near lens according to the purpose of use.
  • the type / frequency is selected according to the purpose of use of each individual, the usage of the eye, and the age.For example, in a bifocal lens, the distance power for the distance where the upper part of the lens is farther from the lower part is selected.
  • the distribution range and the near power distribution range for the distance where the lower part of the lens is closer than the upper part are set.
  • the eye point can be measured by marking the line of sight on the lens with a marker pen with the subject (lens user) staring in the horizontal direction and determining the position of the pupil for distance use.
  • a marker pen with the subject (lens user) staring in the horizontal direction and determining the position of the pupil for distance use.
  • the distance eye point and the near eye point cannot be accurately checked, and the pupil position may be shifted.
  • the subject looks at the inside with the left and right eyes from the examination window of the optometry device, and sets the target optically indicated according to the examiner's instructions. It is known to measure an eye point by gazing (see, for example, Patent Document 1).
  • the examinee must pay attention to various targets according to the instructions of the examiner and respond accurately to the contents of the instructions, which places a burden on the examinee.
  • the measurement of the pupil position will be inaccurate, and the bilateral lens made based on this will not cover the subject's line of sight and correct vision only within a narrow range. There was a problem of not being.
  • the face part including a lens or a frame is photographed in a state where a virtual distant vision is executed by a subject wearing measurement glasses marked with an index, and the index and pupil reflected in the captured image It is known that the eye point position is determined from the relative position on the image (see, for example, Patent Document 2).
  • the pupil position is specified based on the difference in contrast between the white eye and the black eye in the captured image data.
  • the contrast difference does not appear greatly and cannot be specified accurately.
  • the present invention has been made in view of the above-described problems of the prior art, and can accurately and easily measure the pupil position without depending on the skill of the examiner and without placing a burden on the subject. It is an object of the present invention to provide a pupil position measuring method that can perform the above and a method for producing a bilateral lens using the pupil position measuring method.
  • the pupil position measurement method is a pupil position measurement method for producing a bilateral lens, and (a) irradiates a subject wearing a spectacle frame from a distance measurement position with strobe light. (B) photographing the reflected light of the strobe light from the pupil of the subject at the distance measurement position; and (c) the subject wearing the spectacle frame from the near measurement position. Irradiating the person with the strobe light; (d) photographing the reflected light of the strobe light from the pupil of the subject at the near measurement position; and (e) the distance measurement position.
  • the photographing at the distance measurement position and the near measurement position is characterized by using a digital camera including a strobe light irradiation device and an image memory for electronically storing image data.
  • the step of electronically specifying the right pupil position (X1, Y1) and the left pupil position (X2, Y2) of the subject in the step (e) This is done by obtaining the center point of a portion having a predetermined range of area where the luminance exceeds a predetermined threshold in a predetermined region on the left and right sides from the point and having a luminance more than a predetermined multiple than the surrounding region. It is characterized by being.
  • the step of electronically specifying the right pupil position (X1, Y1) and the left pupil position (X2, Y2) of the subject in the step (e) displays the image data on a monitor unit.
  • the position on the screen of the monitor unit designated by the input to the input device is recognized as the right pupil position (X1, Y1) and the left pupil position (X2, Y2).
  • the step of electronically specifying the right pupil position (X3, Y3) and the left pupil position (X4, Y4) of the subject in the step (f) This is done by obtaining the center point of a portion having a predetermined range of area where the luminance exceeds a predetermined threshold in a predetermined region on the left and right sides from the point and having a luminance more than a predetermined multiple than the surrounding region. It is characterized by being.
  • the step of electronically specifying the right pupil position (X3, Y3) and the left pupil position (X4, Y4) of the subject in the step (f) displays the image data on a monitor unit.
  • the position on the screen of the monitor unit designated by the input to the input device is recognized as the right pupil position (X1, Y1) and the left pupil position (X2, Y2).
  • the method for producing a dual-use lens includes: (a) irradiating a subject wearing a spectacle frame from a distance measurement position; and (b) the strobe from the subject's pupil. Photographing the reflected light of the light at the distance measurement position; (c) irradiating the subject wearing the spectacle frame from the near measurement position with the strobe light; Imaging the reflected light of the strobe light from the pupil of the subject at the near measurement position; and (e) a center point of the spectacle frame based on the image data obtained by the imaging at the distance measurement position Electronically specifying the right pupil position (X1, Y1) and left pupil position (X2, Y2) of the subject from (f) based on image data obtained by the imaging at the near measurement position The glasses Electronically specifying the subject's right pupil position (X3, Y3) and left pupil position (X4, Y4) from the center point of the frame; and (g) for the right-eye bilateral lens, A distant power distribution range centered on the pupil position (X1, Y1) and left
  • an intermediate power distribution range is set between the far power distribution range and the near power distribution range.
  • the spectacle frame includes a lens region in which the far power distribution range, the near power distribution range, and the intermediate power distribution range are accommodated.
  • the method for measuring the pupil position it is possible to accurately and easily determine the position of the pupil in a state where the target lens in the dual-use lens is used from the image data by photographing the reflected light by the strobe light.
  • the pupil position in each lens area can be measured.
  • the user of the dual-use lens can target from the power region according to the purpose. An object can be visually recognized accurately.
  • pupil position measuring method which concerns on this invention. It is a block diagram which shows roughly the structure of the camera which image
  • pupil position measurement it is explanatory drawing which shows the screen on a monitor when the test subject of the horizontal direction which is wearing the spectacles frame is image
  • pupil position measurement it is explanatory drawing which shows the screen on a monitor when image
  • the pupil position described above (the above eye point) is not the absolute position of the subject's pupil, but the subject's head when he / she looks at the object with visual acuity corrected by the lens.
  • the distance and near power distribution range of both lenses is determined by measuring the pupil position for distance use and near use, and the determined far power distribution range and near power distribution range are used for both purposes.
  • the lens and combining it with the spectacle frame spectacles corresponding to the subject can be produced.
  • the subject 2 wears the posture shown in FIG. 1A with the eyeglass frame 1 and the line of sight directed in the horizontal direction. In the state of this position a, it is irradiated with strobe light by the strobe light emission device 13 from the subject 2 from the distance measurement position 3 at a distance of L 1 in the viewing direction, in this example, distance measurement position The distance of L 1 up to 3 is 5 m. Then, the camera 11 is arranged at the distance measurement position 3, the face of the user is photographed by this camera, and the subject 2 from the center point O (FIG. 4) of the spectacle frame 1 based on image data obtained by photographing. The right pupil position and the left pupil position are measured.
  • FIG. 2 shows a schematic configuration of the camera 11 used for photographing at this time.
  • the camera 11 includes a control unit 12, a strobe light irradiation device 13, an optical system 14, an image sensor 15, an image memory 16, a computer 20 that performs image processing, and an interface 17 that transmits and receives data and signals. It is.
  • the control unit 12 includes a program storage unit that controls each unit of the camera 11 and a CPU that executes the program. As control of the control unit 12, control such as imaging magnification and focusing of the optical system 14 according to an instruction from the computer 20, and control such as saving and reading of an image with respect to the image memory 16 are performed.
  • FIG. 3 schematically shows the configuration of the computer 20.
  • the computer 20 includes a monitor unit 21, an input device 22, a central control unit 23 that performs predetermined arithmetic processing and control processing based on a program, and an interface 24 that exchanges data and signals with the camera 11.
  • the central control unit 23 includes an imaging program 25, a pupil position measurement program 26, a frequency distribution range setting program 27, a memory 28, and a central processing unit CPU that executes these programs.
  • the pupil position is measured by the computer 20 operating the camera 11.
  • the central control unit 23 executes the imaging program 25 to control the camera 11, and the subject 2 wearing the spectacle frame 1 is measured. Zoom to both eyes and adjust the focal length to the center point O (FIG. 4) of the spectacle frame 1.
  • the camera 11 outputs an image signal captured by the optical system 14 and converted into an electrical signal by the imaging device 15 to the computer 20.
  • the computer 20 displays this image on the monitor unit 21 so that the pupil position measurer can instruct the input device 22 to adjust the range and alignment of the image captured by the camera 11. 20 adjusts an image taken by the camera 11 in accordance with the contents of the adjustment instruction.
  • the camera 11 performs shooting by irradiating the strobe light from the strobe light irradiation device 13 in response to an imaging command sent from the computer 20 under the operation of the measurer.
  • the image sensor 15 of the camera 11 converts the photographic light from the optical system 14 into an electrical signal and outputs it, and the control unit 12 stores the image data in the image memory 16.
  • the central control unit 23 of the computer 20 reads the image data stored in the image memory 16 of the camera 11 and displays it on the monitor unit 21 by executing the pupil position measurement program 26.
  • the pupils of the left and right eyes reflect the light, and the brightness of this portion of the image data increases.
  • FIG. 4 shows a screen displayed on the monitor unit 21 at this time.
  • the central control unit 23 scans each pixel in a predetermined image data region on the left and right sides from the central point O of the spectacle frame 1 to detect a region where the luminance exceeds a predetermined threshold value. Then, by performing arithmetic processing for obtaining the center points p11 and p12 of a portion where the region exceeding the threshold has a predetermined range area and having a luminance more than a predetermined multiple than the peripheral region, The right pupil position (X1, Y1) and the left pupil position (X2, Y2) of the person 2 in the distance are electronically specified.
  • the central control unit 23 scans the luminance of the image element by calculation to specify the left and right pupil positions for the subject 2 in the distance, and the user input from the image displayed on the monitor unit 21 There is also a method in which the central control unit 23 recognizes the position on the screen designated by the right pupil position (X1, Y1) and the left pupil position (X2, Y2).
  • the measurer determines the right pupil position p11 and the left pupil position p12 from the image displayed on the monitor unit 21, and directly points out these positions with the mouse of the input device 22, etc.
  • the control unit 23 calculates the position pointed out and electronically specifies the right pupil position (X1, Y1) and the left pupil position (X2, Y2).
  • the subject 2 wears the spectacle frame 1 and takes the downward posture shown in FIG.
  • this posture b the strobe light is emitted from the near measurement position 4 in the visual line direction of the subject 2 by the strobe light irradiation device 13.
  • the near-use measurement position 4 in this case is a position at a distance L 2 from the subject 2 to the object whose vision is to be corrected when performing desk work, reading, manual work, etc., and is usually around 30 cm to 50 cm. The distance of the range.
  • the camera 11 is arranged at the near measurement position 4, and the central control unit 23 of the computer 20 executes the imaging program 25 to control the camera 11, so that both eyes of the subject 2 wearing the spectacle frame 1 are placed.
  • the strobe light is irradiated from the strobe light irradiation device 13 and the reflected light of the strobe light is photographed.
  • FIG. 5 shows an image in which the central control unit 23 reads out the image data stored in the image memory 16 of the camera 11 and displays it on the monitor unit 21 at this time, and the pupil position of the subject 2 on the lens surface Is relatively low.
  • the central control unit 23 scans each pixel in a predetermined image data area on the left and right sides from the center point O of the spectacle frame 1 to detect an area where the luminance exceeds a predetermined threshold value. Then, a calculation process is performed to obtain the center points p13 and p14 of a portion where the area exceeding the threshold has a predetermined range area and has a predetermined multiple or more luminance than the surrounding area.
  • the right pupil position (X3, Y3) and the left pupil position (X4, Y4) of the near person 2 are electronically specified.
  • the central controller can directly point out the right pupil position p13 and the left pupil position p14 from the image displayed on the monitor unit 21 by the mouse of the input device 22 or the like.
  • 23 can calculate the pointed-out position and electronically specify the right pupil position (X3, Y3) and the left pupil position (X4, Y4).
  • the above-described pupil position measurement method uses the image data obtained by imaging the subject 2 to determine the respective pupil positions for both purposes on the lens surface when producing a perspective lens, a middle lens, or a near lens according to the purpose of use. It can be measured accurately and easily.
  • An embodiment of a method for manufacturing a dual-use lens according to the present invention using such a pupil position measurement method will be described with reference to the flowchart of FIG. The following steps S1 to S9 are performed under the control of the computer 20.
  • the subject 2 Prior to the preparation of the bilateral lens, the subject 2 selects his / her favorite spectacle frame 1 and the pupil position is measured with the spectacle frame 1 being worn.
  • step S1 stroboscopic light is irradiated from the stroboscopic light irradiation device 13 disposed at the distance measurement position ahead of the horizontal line of sight of the subject 2 wearing the spectacle frame 1 on which the bilateral lens is mounted.
  • step S2 the reflected light of the strobe light from the pupil of the subject 2 is photographed by the camera 11 placed at the distance measurement position.
  • step S3 the subject 2 wearing the spectacle frame 1 irradiates the strobe light from the near measurement position in the downward posture.
  • step S4 the reflected light of the strobe light from the pupil of the subject 2 is photographed by the camera 11 from the near measurement position.
  • step S5 the right pupil position (X1, Y1) and left pupil position (X2, Y2) of the subject 2 from the center point O of the spectacle frame 1 are determined based on the image data obtained at the distance measurement position. Electronically identify and measure pupil position in distance.
  • step S6 the right pupil position (X3, Y3) and left pupil position (X4, Y4) of the subject 2 from the center point O of the spectacle frame 1 are determined based on the image data obtained at the near measurement position. Identifies electronically and measures the near pupil position.
  • step S7 the respective distribution ranges of the far power and the near power in the left and right eyes of the subject 2 that are measured in advance are set.
  • the processing in step S7 is performed by the central control unit 23 executing the frequency distribution range setting program 27, and the central control unit 23 places the lens area of the spectacle frame 1 in the monitor unit 21 as shown in FIG.
  • the distant power distribution range A1 centered on the pupil position (X1, Y1) in the right eye lens and the near power distribution range B1 centered on the pupil position (X3, Y3), and the left eye lens A distant power distribution range A2 centered on the pupil position (X2, Y2) and a near power distribution range B2 centered on the pupil position (X4, Y4) are displayed.
  • the central control unit 23 determines the regions of the far power distribution ranges A1 and A2 and the near power distribution ranges B1 and B2 according to the condition data conditions such as the purpose of use of the dual-use lens input to the input device 22. Calculate and display.
  • the far power distribution range of the bifocal lens is set wider than the far power distribution range of the mid and near lenses.
  • an intermediate frequency distribution range C1 is provided between the far frequency distribution range A1 and the near frequency distribution range B1
  • an intermediate frequency distribution range C2 is provided between the far frequency distribution range A2 and the near frequency distribution range B2.
  • the intermediate power distribution range of the middle and near lenses is set wider than the intermediate power distribution range of the lenses.
  • step S8 it is determined whether or not the distribution ranges of the far power, the near power, and the intermediate power are within the lens area of the frame 1.
  • the far power distribution range A1, the near power distribution range B1, and the intermediate power distribution range C1 do not fit in the lens region of the right eye of the spectacle frame 1, or when the far power distribution range A2 and the near power distribution range B2
  • the intermediate power distribution range C2 does not fit in the lens region of the left eye of the spectacle frame 1
  • the production of the dual lens for combining with the spectacle frame 1 is stopped, and a new spectacle frame having a large lens region area is stopped.
  • the flow for producing the bilateral lens is started again. Thereby, the spectacle frame 1 having the optimum size having a lens region in which the measured far power distribution range, the near power distribution range, and the intermediate power distribution range are effectively selected is selected.
  • the manufacturer of the bifocal lens confirms the distant power distribution range A1, A2 and the near power distribution range B1, B2 and the intermediate power distribution range C1 and C2 displayed on the screen of the monitor unit 21. It is determined whether it is suitable for the subject 2 and an instruction is given from the input device 22 to the computer 20, but the central control unit 23 waits for this instruction in step S9. This determination is made in accordance with, for example, opinions such as the specifications of the spectacle frame 1 and the fit of the subject 2 to the spectacle frame 1. Then, when determining that it is incompatible, the creator inputs correction data to the input device 22, and the central control unit 23 returns to the process of step S ⁇ b> 7. Then, the central control unit 23 corrects the regions of the far frequency distribution range A1, A2 and the near frequency distribution range B1, B2 and the intermediate frequency distribution range C1 and C2 based on the correction data input to the input device 22. To display.
  • the creator determines whether the distant frequency distribution ranges A1, A2 and the near power distribution ranges B1 and B2 and the intermediate power distribution ranges C1 and C2 displayed on the screen of the monitor unit 21 are suitable from the input device 22.
  • the central control unit 23 performs the processing of step S10 and displays the distant frequency distribution range A1, A2, the near frequency distribution range B1, B2, and the intermediate frequency distribution range C1, C2 displayed on the monitor unit 21. Is stored in the memory 28, and the layout design of the far power distribution range and the near power distribution range to the dual lens by the computer 21 is completed.
  • the creator of the bifocal lens reads out the arrangement data of the distant power distribution range, the near power distribution range, and the intermediate power distribution range stored in the memory 28, and adjusts the perspective according to the purpose of use. Prescribe a lens, a mid-range lens or a lens soon. At this time, the creator has previously extracted the distance power, near power, and astigmatism correction data of the subject 2 by measurement, and the far power distribution range, the near power distribution range, and the intermediate power distribution range.
  • the prescription for the bilateral lens is made by applying the distance power, near power, intermediate power, and astigmatism correction data. Then, the glasses for exclusive use of the subject 2 are produced by combining the prescribed dual-use lens with the spectacle frame 1.
  • the present invention is a method for measuring a pupil position and a method for producing a dual-use lens using this pupil position measurement method.
  • the dual-use lens the use area according to the purpose and the pupil of the subject can be reliably matched, With the above applicability.

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Eyeglasses (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

両用レンズの各レンズ領域でのレンズ面上での瞳孔位置を正確且つ簡単に測定することができる瞳孔位置測定方法を提供する。遠用測定位置から眼鏡フレーム1を着用した被検者2に対してストロボ光を照射して、被検者2の瞳孔からのストロボ光の反射光を遠用測定位置でカメラ11により撮影し、撮影による画像データに基づいて、眼鏡フレーム1の中心点Oからの被検者2の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定する。近用測定位置から眼鏡フレーム1を着用した被検者2に対してストロボ光を照射して、被検者2の瞳孔からのストロボ光の反射光を近用測定位置でカメラ11により撮影し、撮影による画像データに基づいて、眼鏡フレームの中心点Oからの被検者2の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定する。

Description

瞳孔位置測定方法及び両用レンズの作製方法
 本発明は、瞳孔位置測定方法及びこの瞳孔位置測定方法を利用した両用レンズの作製方法に関する。
 両用レンズは、1枚のレンズに異なる度数の部分を複数形成したレンズであり、使用目的に合わせて遠近レンズ・中近レンズ・近々レンズがある。このようなレンズを作製する場合には、各個人の使用目的や眼の使い方、年齢に合わせて種類・度数が選択され、例えば、遠近両用レンズでは、レンズ上部が下部より遠い距離用の遠方度数分布範囲、レンズ下部が上部より近い距離用の近方度数分布範囲にそれぞれ設定される。
 そして、度数の選択とともに左右両眼のレンズ面上でのレンズ着用者の瞳孔位置であるアイポイントを測定する必要があるが、両用レンズの場合は、異なる度数領域でのそれぞれのアイポイントを正確に定めないと、着用者は目的のレンズ領域を通して正しく対象物を捉えられず、両用レンズとしての機能を達成できなくなる。
 アイポイントを測定する方法としては、被検者(レンズ使用者)が水平方向を凝視した状態でレンズ上の視線位置にマーカペンで印を付けて遠用での瞳孔の位置を定める方法や、アイポイントシールをレンズに貼り、鏡を利用してシールの位置と近用距離での瞳孔の位置を合わせていくミラー法がある。しかし、このような測定方法は検査者の技量に依存するために、遠用アイポイント及び近用アイポイントのチェックを正確に行うことができずに瞳孔位置にずれを生じることがある。
 また、検査者の技量に依存せずに検眼装置を用いて、被検者が検眼装置の検査窓から左右の眼で内部を覗きながら、検査者の指示に応じて光学的に示される目標を注視することでアイポイントを測定することが知られている(例えば、特許文献1を参照)。
 しかし、検眼装置においては、被検者は、検査者の指示により種々の目標を注視して指示の内容に正確に応答しなければならず、被検者には緊張を強いるなどの負担をかけることになり、結果、被検者が応答を誤ると瞳孔位置の測定が不正確となって、これを基にして作製した両用レンズは被検者の視線をカバーしきれず狭い範囲でしか視力矯正されないという問題があった。
 そのため、指標をマーキングした測定用眼鏡を装用した被検者に仮想的な遠用視を実行させた状態でレンズ又はフレームを含む顔面部を撮影し、撮影した画像に写された指標と瞳孔との画像上での相対位置とからアイポイント位置を決定することが知られている(例えば、特許文献2を参照)。
 しかし、特許文献2による従来技術では、撮影した画像データで白目と黒目のコントラストの違いから瞳孔位置を特定するのに、撮影条件や撮影環境によってはコントラストの差が大きく表れずに正確に特定できないことがある。
特開2001-178680号公報 特開2003-329541号公報
 本発明は、上記した従来技術の課題に鑑みてなされたものであり、検査者の技量に依存せず、そして被検者にも負担をかけずに、正確且つ簡単に瞳孔位置を測定することができる瞳孔位置測定方法及びこの瞳孔位置測定方法を利用した両用レンズの作製方法を提供することを目的とするものである。
 このため、本発明による瞳孔位置測定方法は、両用レンズを作製するための瞳孔位置測定方法であって、(a)遠用測定位置から眼鏡フレームを着用した被検者に対してストロボ光を照射するステップと、(b)前記被検者の瞳孔からの前記ストロボ光の反射光を前記遠用測定位置で撮影するステップと、(c)近用測定位置から前記眼鏡フレームを着用した前記被検者に対して前記ストロボ光を照射するステップと、(d)前記被検者の瞳孔からの前記ストロボ光の反射光を前記近用測定位置で撮影するステップと、(e)前記遠用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定するステップと、(f)前記近用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定するステップと、を備えたことを特徴としている。
 そして、前記遠用測定位置と前記近用測定位置での前記撮影には、ストロボ光照射装置と、画像データを電子的に格納する画像メモリとを備えたデジタルカメラを用いることを特徴としている。
 また、前記ステップ(e)における前記被検者の前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)を電子的に特定するステップは、前記画像データにおいて前記眼鏡フレームの中心点から左右側の予め設定された領域内において輝度が予め設定された閾値を超える所定範囲の面積を有し且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点を求めることにより行われることを特徴としている。
 一方、前記ステップ(e)における前記被検者の前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)を電子的に特定するステップは、前記画像データをモニター部に表示し、入力デバイスへの入力により指定された前記モニター部の画面上の位置を前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)として認識することを特徴としている。
 また、前記ステップ(f)における前記被検者の前記右瞳孔位置(X3、Y3)及び前記左瞳孔位置(X4、Y4)を電子的に特定するステップは、前記画像データにおいて前記眼鏡フレームの中心点から左右側の予め設定された領域内において輝度が予め設定された閾値を超える所定範囲の面積を有し且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点を求めることにより行われることを特徴としている。
 一方、前記ステップ(f)における前記被検者の前記右瞳孔位置(X3、Y3)及び前記左瞳孔位置(X4、Y4)を電子的に特定するステップは、前記画像データをモニター部に表示し、入力デバイスへの入力により指定された前記モニター部の画面上の位置を前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)として認識することを特徴としている。
 本発明による両用レンズの作製方法は、(a)遠用測定位置から眼鏡フレームを着用した被検者に対してストロボ光を照射するステップと、(b)前記被検者の瞳孔からの前記ストロボ光の反射光を前記遠用測定位置で撮影するステップと、(c)近用測定位置から前記眼鏡フレームを着用した前記被検者に対して前記ストロボ光を照射するステップと、(d)前記被検者の瞳孔からの前記ストロボ光の反射光を前記近用測定位置で撮影するステップと、(e)前記遠用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定するステップと、(f)前記近用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定するステップと、(g)右眼の前記両用レンズについて、前記右瞳孔位置(X1、Y1)を中心とする遠方度数の分布範囲と、前記右瞳孔位置(X3、Y3)を中心とする近方度数の分布範囲とを設定するステップと、(h)左眼の前記両用レンズについて、前記左瞳孔位置(X2、Y2)を中心とする前記遠方度数の分布範囲と前記左瞳孔位置(X4、Y4)を中心とする前記近方度数の分布範囲とを設定するステップと、を備えて、左右の前記遠方度数分布範囲及び前記近方度数分布範囲に基づいて前記両用レンズを作製することを特徴としている。
 そして、左右の両眼において、前記遠方度数分布範囲と前記近方度数分布範囲の間に中間度数分布範囲を設定することを特徴としている。
 また、前記眼鏡フレームは、前記遠方度数分布範囲と前記近方度数分布範囲と前記中間度数分布範囲とが収まるレンズ領域を備えることを特徴としている。
 本発明に係る瞳孔位置測定方法によれば、ストロボ光による反射光を撮影し、その画像データから両用レンズにおける目的のレンズを使用した状態での瞳孔の位置を特定するために、正確且つ簡単にそれぞれのレンズ領域での瞳孔位置を測定することができる。そして、測定した2通りの瞳孔位置をそれぞれ遠方度数の分布範囲及び近方度数の分布範囲を中心に据えた両用レンズを作製することで、両用レンズの使用者は目的に応じた度数領域から対象物を正確に視認することができる。
本発明に係る瞳孔位置測定方法を説明する説明図である。 ストロボ光の反射光を撮影するカメラの構成を概略的に示すブロック図である。 本発明に係る瞳孔位置測定方法及び両用レンズの作製方法を制御するコンピュータの構成を概略的に示すブロック図である。 瞳孔位置測定において、カメラにより眼鏡フレームを着用している水平向きの被検者を撮影したときのモニター上の画面を示す説明図である。 瞳孔位置測定において、カメラにより眼鏡フレームを着用している下向きの被検者を撮影したときのモニター上の画面を示す説明図である。 本発明に係る両用レンズの作製方法をフローチャートにより示す説明図である。 眼鏡フレームにおける遠方度数分布範囲・近方度数分布範囲・中間度数分布範囲を表示しているモニター部の画面を示す説明図である。
 以下、本発明に係る瞳孔位置測定方法の実施形態について、図面を参照して詳細に説明する。ここで説明する瞳孔位置(上記のアイポイント)とは、被検者の瞳孔の絶対位置ではなく、被検者がレンズによって矯正された視力で対象物を見るときに、被検者の頭部の動きを含めた、瞳孔からの視線と両用レンズとの相対的な位置を意味している。この相対的な位置は、作製する両用レンズを組み込む眼鏡フレームと瞳孔との位置関係によって決まるために、被検者が眼鏡フレームを着用した状態で遠用時と近用時でのそれぞれの場合における瞳孔位置を測定する。そして、遠用時と近用時での瞳孔位置を測定することにより両用レンズの遠方度数分布範囲と近方度数分布範囲とが決まり、決定した遠方度数分布範囲と近方度数分布範囲とで両用レンズを処方し眼鏡フレームに組み合わせることで、被検者に応じた眼鏡を作製することができる。
(遠用での瞳孔位置の測定)
 遠用での瞳孔位置の測定においては、被検者2は、眼鏡フレーム1を着用して視線を水平方向に向けた図1でaに示す姿勢を執っている。この姿勢aの状態で、被検者2からその視線方向でLの距離を置いた遠用測定位置3からストロボ光照射装置13によってストロボ光を照射するが、本例では、遠用測定位置3までのLの距離を5mとしている。そして、遠用測定位置3にカメラ11を配置して、このカメラによって使用者の顔面を撮影し、撮影による画像データに基づいて眼鏡フレーム1の中心点O(図4)からの被検者2の右瞳孔位置及び左瞳孔位置を測定する。
 このときの撮影に使用するカメラ11の概略的な構成を図2に示す。カメラ11は、制御部12、ストロボ光照射装置13、光学系14、撮像素子15、画像メモリ16及び画像処理を行うコンピュータ20とデータ及び信号の授受を行うインターフェース17を含んで構成されるデジタルカメラである。
 制御部12は、カメラ11の各部を制御するプログラム記憶部と、このプログラムを実行するCPUとを備えている。制御部12の制御としては、コンピュータ20からの指示に伴う光学系14の撮像倍率やピント合わせ等の制御、画像メモリ16に対する画像の保存や読出し等の制御を行う。
 図3は、コンピュータ20の構成を模式的に示している。コンピュータ20は、モニター部21、入力デバイス22、プログラムに基づいて所定の演算処理や制御処理を行う中央制御部23及びカメラ11とデータ及び信号の授受を行うインターフェース24を含んで構成される。中央制御部23は、撮像プログラム25、瞳孔位置測定プログラム26及び度数分布範囲設定プログラム27と、メモリ28と、これらプログラムを実行する中央演算処理装置CPUとを含んでいる。
 瞳孔位置の測定は、コンピュータ20がカメラ11を作動して行うが、このとき、中央制御部23は撮像プログラム25を実行してカメラ11を制御し、眼鏡フレーム1を着用した被検者2の両眼にズームして、眼鏡フレーム1の中心点O(図4)に焦点距離を合わせる。カメラ11はコンピュータ20からの指示により、光学系14が捉えて撮像素子15により電気信号に変換された画像信号をコンピュータ20に出力している。そして、コンピュータ20が、この画像をモニター部21に表示することで、瞳孔位置の測定者は、カメラ11が捉える画像の範囲や位置合わせ等の調整を入力デバイス22から指示することができ、コンピュータ20はこの調整指示の内容に従ってカメラ11による撮影画像を調整する。
 カメラ11は、測定者の操作の下でコンピュータ20から送られる撮像指令に応答して、ストロボ光照射装置13からストロボ光を照射させ撮影を行う。そして、カメラ11の撮像素子15は、光学系14からの撮影光を電気信号に変換して出力し、制御部12は、この画像データを画像メモリ16に保存する。
 コンピュータ20の中央制御部23は、瞳孔位置測定プログラム26を実行することで、カメラ11の画像メモリ16に保存した画像データを読み出してモニター部21に表示する。ストロボ光にて撮影を行うと左右両眼の瞳孔が光を反射し、画像データの中でもこの部分の輝度は高くなる。
 図4は、このときのモニター部21上に表示される画面を示している。中央制御部23は、眼鏡フレーム1の中心点Oから左右側の予め設定された画像データの領域内において各画素を走査し、輝度が予め設定された閾値を超える領域を検出する。そして、この閾値を超えている領域が所定範囲の面積を有して、且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点p11、p12を求める演算処理を行うことで、被検者2の遠用での右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定する。
 このように中央制御部23が画像素子の輝度を演算により走査して、被検者2の遠用での左右の瞳孔位置を特定する以外に、モニター部21に表示されている画像からユーザ入力により指定された画面上の位置を右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)として中央制御部23に認識させる方法もある。
 この場合は、測定者がモニター部21に表示されている画像から右の瞳孔位置p11及び左の瞳孔位置p12を判断し、この位置を入力デバイス22のマウス等によって直接ポイントアウトすることで、中央制御部23はポイントアウトされた位置を演算して、右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定する。
(近用での瞳孔位置の測定)
 両用レンズの近用での瞳孔位置の測定においては、被検者2は、眼鏡フレーム1を着用して図1でbに示す下向き姿勢を執っている。この姿勢bの状態で、被検者2の視線方向の近用測定位置4からストロボ光照射装置13によってストロボ光を照射する。この場合の近用測定位置4は、デスクワーク・読書・手作業等を行うとき、被検者2から視力を矯正したい対象物までの距離Lを置いた位置であり、通常、30cm乃至50cm前後の範囲の距離となる。
 この近用測定位置4にカメラ11を配置して、コンピュータ20の中央制御部23は、撮像プログラム25を実行してカメラ11を制御し、眼鏡フレーム1を着用した被検者2の両眼にズームして、眼鏡フレーム1の中心点O(図5)に焦点距離を合わせた後、ストロボ光照射装置13からストロボ光を照射させてストロボ光の反射光を撮影する。
 そして、中央制御部23は、上記した遠用での瞳孔位置の測定と同様に、瞳孔位置測定プログラム26を実行して撮影による画像データに基づいて、眼鏡フレーム1の中心点Oからの被検者2の右瞳孔位置及び左瞳孔位置を測定する。図5は、このとき中央制御部23が、カメラ11の画像メモリ16に保存した画像データを読み出してモニター部21に表示する画像を示しており、レンズ面上での被検者2の瞳孔位置は相対的に低い位置となっている。
 中央制御部23は、眼鏡フレーム1の中心点Oから左右側の予め設定された画像データの領域内において各画素を走査し、輝度が予め設定された閾値を超える領域を検出する。そして、この閾値を超えている領域が所定範囲の面積を有して、且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点p13、p14を求める演算処理を行うことで、被検者2の近用での右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定する。
 この場合も別の方法として、測定者がモニター部21の表示している画像から右の瞳孔位置p13及び左の瞳孔位置p14を入力デバイス22のマウス等によって直接ポイントアウトすることにより、中央制御部23はポイントアウトされた位置を演算して、右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定することもできる。
(両用レンズの作製方法)
 上記の瞳孔位置測定方法は、被検者2を撮影した画像データにより使用目的に合わせて遠近レンズや中近レンズまたは近々レンズを作製するときに、レンズ面上における両用でのそれぞれの瞳孔位置を正確且つ簡単に測定することができる。このような瞳孔位置測定方法を利用した本発明に係る両用レンズの作製方法の実施形態を図6のフローチャートによって説明する。以下のステップS1乃至ステップS9の処理は、コンピュータ20の制御により行われる。なお、両用レンズの作製に先立ち、被検者2は好みの眼鏡フレーム1を選択し、この眼鏡フレーム1を着用してもらった状態で瞳孔位置の測定が行われる。
 ステップS1では、両用レンズを装着する眼鏡フレーム1を着用した被検者2の水平方向の視線の先にある遠用測定位置に配置したストロボ光照射装置13からストロボ光を照射する。
 ステップS2では、被検者2の瞳孔からのストロボ光の反射光を遠用測定位置に配置したカメラ11によって撮影する。
 ステップS3では、眼鏡フレーム1を着用した被検者2が下向き姿勢での近用測定位置からストロボ光を照射する。
 ステップS4では、被検者2の瞳孔からのストロボ光の反射光を近用測定位置からカメラ11によって撮影する。
 ステップS5では、遠用測定位置での撮影による画像データに基づいて、眼鏡フレーム1の中心点Oからの被検者2の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定し、遠用での瞳孔位置を測定する。
 ステップS6では、近用測定位置での撮影による画像データに基づいて、眼鏡フレーム1の中心点Oからの被検者2の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定し、近用での瞳孔位置を測定する。
 ステップS7では、予め測定している被検者2の左右両眼での遠方度数及び近方度数のそれぞれの分布範囲を設定する。このステップS7での処理は、中央制御部23が度数分布範囲設定プログラム27を実行することで行われ、中央制御部23は、図7で示すように、モニター部21に眼鏡フレーム1のレンズ領域に対して、右眼レンズにおける瞳孔位置(X1、Y1)を中心とする遠方度数の分布範囲A1及び瞳孔位置(X3、Y3)を中心とする近方度数の分布範囲B1と、左眼レンズにおける瞳孔位置(X2、Y2)を中心とする遠方度数の分布範囲A2及び瞳孔位置(X4、Y4)を中心とする近方度数の分布範囲B2とを表示する。このとき、中央制御部23は、入力デバイス22に入力される両用レンズの使用目的等の条件データの条件に応じて、遠方度数分布範囲A1、A2及び近方度数分布範囲B1、B2の領域を演算して表示する。例えば、遠近両用レンズの遠方度数分布範囲は、中近両用レンズの遠方度数分布範囲より広めに設定される。
 また、遠方度数分布範囲A1と近方度数分布範囲B1との間に中間度数分布範囲C1を設け、遠方度数分布範囲A2と近方度数分布範囲B2との間に中間度数分布範囲C2を設けることで、両用の累進レンズとなる。この場合、中近両用レンズの中間度数分布範囲は、遠近両用レンズの中間度数分布範囲より広めに設定される。
 ステップS8では、遠方度数と近方度数と中間度数の各分布範囲がフレーム1のレンズ領域に収まるか否かを判断する。そして、遠方度数分布範囲A1と近方度数分布範囲B1と中間度数分布範囲C1とが眼鏡フレーム1の右眼のレンズ領域に収まらない場合や、遠方度数分布範囲A2と近方度数分布範囲B2と中間度数分布範囲C2とが眼鏡フレーム1の左眼のレンズ領域に収まらない場合には、当該眼鏡フレーム1に組み合わせるための両用レンズの作製作業は中止となり、レンズ領域の面積が大きい新たな眼鏡フレーム1を被検者2に選択してもらってから、再度、両用レンズ作製のフローが開始される。これにより、測定した前記遠方度数分布範囲と前記近方度数分布範囲と前記中間度数分布範囲とが有効に収まるレンズ領域を備えた最適サイズの眼鏡フレーム1が選択される。
 次に、遠近両用レンズの作製者は、モニター部21の画面上に表示されている遠方度数分布範囲A1、A2・近方度数分布範囲B1、B2・中間度数分布範囲C1、C2を確認して被検者2に適合するものであるかを判断して、入力デバイス22からコンピュータ20に指示を与えることになるが、中央制御部23はステップS9でこの指示を待機する。この判断は、例えば、眼鏡フレーム1の仕様や被検者2による眼鏡フレーム1へのフィット感等の意見に応じて行われる。そして、不適合と判断すると作製者は、補正データを入力デバイス22に入力するため、中央制御部23はステップS7の処理に戻る。そして、中央制御部23は、入力デバイス22に入力された補正データに基づいて遠方度数分布範囲A1、A2・近方度数分布範囲B1、B2・中間度数分布範囲C1、C2の領域を補正する演算を行って表示する。
 作製者がモニター部21の画面上に表示されている遠方度数分布範囲A1、A2・近方度数分布範囲B1、B2・中間度数分布範囲C1、C2の適合を判断して入力デバイス22から適合の指示を行うと、中央制御部23は、ステップS10の処理となってモニター部21に表示している遠方度数分布範囲A1、A2・近方度数分布範囲B1、B2・中間度数分布範囲C1、C2の領域の配置データをメモリ28に格納し、コンピュータ21による両用レンズへの遠方度数分布範囲及び近方度数分布範囲の配置設計が終了する。
 配置設計が終了すると、遠近両用レンズの作製者は、メモリ28に格納している遠方度数分布範囲、近方度数分布範囲及び中間度数分布範囲の各配置データを読み出して、使用目的に合わせて遠近レンズや中近レンズまたは近々レンズを処方する。このとき、作製者は事前に、被検者2の遠用度数、近用度数及び乱視矯正の各データを測定により抽出しており、遠方度数分布範囲、近方度数分布範囲及び中間度数分布範囲内に、遠用度数、近用度数、中間度数及び乱視矯正の各データを適用させて両用レンズを処方する。そして、処方した両用レンズを眼鏡フレーム1に組み合わせることで被検者2の専用の眼鏡が作製される。
 こうして作製された眼鏡を着用した被検者2は、見ようとする対象物に応じて視線を動かすことで両用レンズの遠用領域と近用領域とを使い分けたとき、そのときの使用領域と瞳孔とが確実に合って視線と両用レンズがカバーする度数範囲とが正確に一致するため、被検者2にとって視力が確実に矯正される。
 本発明は、瞳孔位置測定方法及びこの瞳孔位置測定方法を利用した両用レンズの作製方法であり、両用レンズにおいて目的に応じた使用領域と被検者の瞳孔とを確実に合わせることができ、産業上の利用可能性を有する。
1   眼鏡フレーム
2   被検者
3   遠用測定位置
4   近用測定位置
11  カメラ
13  ストロボ光照射装置
16  画像メモリ
20  コンピュータ
21  モニター部
22  入力デバイス
A1、A2 遠方度数分布範囲
B1、B2 近方度数分布範囲
C1、C2 中間度数分布範囲

Claims (9)

  1.  両用レンズを作製するための瞳孔位置測定方法であって、
    (a)遠用測定位置から眼鏡フレームを着用した被検者に対してストロボ光を照射するステップと、
    (b)前記被検者の瞳孔からの前記ストロボ光の反射光を前記遠用測定位置で撮影するステップと、
    (c)近用測定位置から前記眼鏡フレームを着用した前記被検者に対して前記ストロボ光を照射するステップと、
    (d)前記被検者の瞳孔からの前記ストロボ光の反射光を前記近用測定位置で撮影するステップと、
    (e)前記遠用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定するステップと、
    (f)前記近用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定するステップと、
    を備えたことを特徴とする瞳孔位置測定方法。
  2.  前記遠用測定位置と前記近用測定位置での前記撮影には、ストロボ光照射装置と、画像データを電子的に格納する画像メモリとを備えたデジタルカメラを用いることを特徴とする請求項1に記載の瞳孔位置測定方法。
  3.  前記ステップ(e)における前記被検者の前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)を電子的に特定するステップは、前記画像データにおいて前記眼鏡フレームの中心点から左右側の予め設定された領域内において輝度が予め設定された閾値を超える所定範囲の面積を有し且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点を求めることにより行われることを特徴とする請求項1に記載の瞳孔位置測定方法。
  4.  前記ステップ(e)における前記被検者の前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)を電子的に特定するステップは、前記画像データをモニター部に表示し、入力デバイスへの入力により指定された前記モニター部の画面上の位置を前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)として認識することを特徴とする請求項1に記載の瞳孔位置測定方法。
  5.  前記ステップ(f)における前記被検者の前記右瞳孔位置(X3、Y3)及び前記左瞳孔位置(X4、Y4)を電子的に特定するステップは、前記画像データにおいて前記眼鏡フレームの中心点から左右側の予め設定された領域内において輝度が予め設定された閾値を超える所定範囲の面積を有し且つその周辺領域よりも所定倍数以上の輝度を有する箇所の中心点を求めることにより行われることを特徴とする請求項1に記載の瞳孔位置測定方法。
  6.  前記ステップ(f)における前記被検者の前記右瞳孔位置(X3、Y3)及び前記左瞳孔位置(X4、Y4)を電子的に特定するステップは、前記画像データをモニター部に表示し、入力デバイスへの入力により指定された前記モニター部の画面上の位置を前記右瞳孔位置(X1、Y1)及び前記左瞳孔位置(X2、Y2)として認識することを特徴とする請求項1に記載の瞳孔位置測定方法。
  7. (a)遠用測定位置から眼鏡フレームを着用した被検者に対してストロボ光を照射するステップと、
    (b)前記被検者の瞳孔からの前記ストロボ光の反射光を前記遠用測定位置で撮影するステップと、
    (c)近用測定位置から前記眼鏡フレームを着用した前記被検者に対して前記ストロボ光を照射するステップと、
    (d)前記被検者の瞳孔からの前記ストロボ光の反射光を前記近用測定位置で撮影するステップと、
    (e)前記遠用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X1、Y1)及び左瞳孔位置(X2、Y2)を電子的に特定するステップと、
    (f)前記近用測定位置での前記撮影による画像データに基づいて、前記眼鏡フレームの中心点からの前記被検者の右瞳孔位置(X3、Y3)及び左瞳孔位置(X4、Y4)を電子的に特定するステップと、
    (g)右眼の前記両用レンズについて、前記右瞳孔位置(X1、Y1)を中心とする遠方度数の分布範囲と、前記右瞳孔位置(X3、Y3)を中心とする近方度数の分布範囲とを設定するステップと、
    (h)左眼の前記両用レンズについて、前記左瞳孔位置(X2、Y2)を中心とする前記遠方度数の分布範囲と前記左瞳孔位置(X4、Y4)を中心とする前記近方度数の分布範囲とを設定するステップと、を備えて、
     上下左右の前記遠方度数分布範囲及び前記近方度数分布範囲に基づいて前記両用レンズを作製することを特徴とする両用レンズの作製方法。
  8.  左右の両眼において、前記遠方度数分布範囲と前記近方度数分布範囲の間に中間度数分布範囲を設定することを特徴とする請求項7に記載の両用レンズの作製方法。
  9.  前記眼鏡フレームは、前記遠方度数分布範囲と前記近方度数分布範囲と前記中間度数分布範囲とが収まるレンズ領域を備えることを特徴とする請求項8に記載の両用レンズの作製方法。
PCT/JP2013/059026 2012-10-19 2013-03-27 瞳孔位置測定方法及び両用レンズの作製方法 WO2014061294A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380001727.5A CN103890641A (zh) 2012-10-19 2013-03-27 瞳孔位置测定方法及两用透镜的制作方法
KR1020137029852A KR20150073818A (ko) 2012-10-19 2013-03-27 동공 위치 측정 방법 및 양용 렌즈의 제작 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012231911A JP5279153B1 (ja) 2012-10-19 2012-10-19 瞳孔位置測定方法及び両用レンズの作製方法
JP2012-231911 2012-10-19

Publications (1)

Publication Number Publication Date
WO2014061294A1 true WO2014061294A1 (ja) 2014-04-24

Family

ID=49273936

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/059026 WO2014061294A1 (ja) 2012-10-19 2013-03-27 瞳孔位置測定方法及び両用レンズの作製方法

Country Status (4)

Country Link
JP (1) JP5279153B1 (ja)
KR (1) KR20150073818A (ja)
CN (1) CN103890641A (ja)
WO (1) WO2014061294A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160002614U (ko) * 2015-01-16 2016-07-26 (주)뷰아이텍 안경 렌즈 제작을 위해 필요한 파라미터 측정 장치
EP3413122A1 (de) 2017-06-08 2018-12-12 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2014221656B2 (en) 2013-02-28 2016-12-08 Hoya Corporation Spectacle lens design system, supply system, design method, and production method
CN111158146A (zh) * 2019-12-31 2020-05-15 歌尔股份有限公司 头戴设备及其控制方法和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174304A (ja) * 1990-11-07 1992-06-22 Nissan Motor Co Ltd 眼位置検出装置
JP2000241118A (ja) * 1999-02-22 2000-09-08 Nidek Co Ltd 眼位置測定装置
JP2003329541A (ja) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk アイポイントの位置決定方法及びアイポイント測定システム
JP2006516752A (ja) * 2003-01-28 2006-07-06 カール ツァイス ビジョン ゲーエムベーハー 瞳孔の位置に対する眼鏡レンズの相対位置を調整する装置および方法
JP2007522496A (ja) * 2004-01-13 2007-08-09 オフソニックス・インコーポレーテッド カスタム眼鏡の製造方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011033677A (ja) * 2009-07-30 2011-02-17 Seiko Epson Corp 眼球下転量測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174304A (ja) * 1990-11-07 1992-06-22 Nissan Motor Co Ltd 眼位置検出装置
JP2000241118A (ja) * 1999-02-22 2000-09-08 Nidek Co Ltd 眼位置測定装置
JP2003329541A (ja) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk アイポイントの位置決定方法及びアイポイント測定システム
JP2006516752A (ja) * 2003-01-28 2006-07-06 カール ツァイス ビジョン ゲーエムベーハー 瞳孔の位置に対する眼鏡レンズの相対位置を調整する装置および方法
JP2007522496A (ja) * 2004-01-13 2007-08-09 オフソニックス・インコーポレーテッド カスタム眼鏡の製造方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160002614U (ko) * 2015-01-16 2016-07-26 (주)뷰아이텍 안경 렌즈 제작을 위해 필요한 파라미터 측정 장치
KR200489909Y1 (ko) * 2015-01-16 2019-10-21 (주)뷰아이텍 안경 렌즈 제작을 위해 필요한 파라미터 측정 장치
EP3413122A1 (de) 2017-06-08 2018-12-12 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes
WO2018224655A1 (de) 2017-06-08 2018-12-13 Carl Zeiss Vision International Gmbh Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes
EP3702832A1 (de) 2017-06-08 2020-09-02 Carl Zeiss Vision International GmbH Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes
US10890784B2 (en) 2017-06-08 2021-01-12 Carl Zeiss Vision International Gmbh Methods, devices, and computer program for determining a near-vision point

Also Published As

Publication number Publication date
JP2014085394A (ja) 2014-05-12
KR20150073818A (ko) 2015-07-01
CN103890641A (zh) 2014-06-25
JP5279153B1 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
US10048750B2 (en) Content projection system and content projection method
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
JP5013930B2 (ja) 眼鏡装用パラメータ測定装置及び眼鏡装用パラメータ測定方法
US9335567B2 (en) Method for manufacturing binocular loupe
JP2010259605A (ja) 視線測定装置および視線測定プログラム
CN105764405A (zh) 基于主观距离计量测量眼睛屈光不正的系统和方法
JP5311601B1 (ja) 双眼ルーペの製作方法
JP6515542B2 (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
JP2012239566A (ja) 眼鏡用測定装置及び三次元測定装置
JP2011253042A (ja) 眼鏡レンズ選択方法及び眼鏡レンズ選択システム
JP2007232753A (ja) 眼鏡仕様設定装置及び視野検出装置
JP2007093636A (ja) 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
JP5279153B1 (ja) 瞳孔位置測定方法及び両用レンズの作製方法
JP4811683B2 (ja) 視野検出装置
JP2007003923A (ja) 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
CN112748587B (zh) 眼镜镜片的设计方法、眼镜镜片的制造方法及眼镜镜片
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP5652973B1 (ja) 双眼ルーペの製作方法
KR101506818B1 (ko) 안경렌즈제작을 위한 안 검사 시스템과 검사 방법
CN111417893B (zh) 用于检验眼科镜片在镜架中的安装的方法和组件
JP6164739B2 (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび画像取得方法
JP2017181657A (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
JP2016167038A (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
US11892366B2 (en) Method and system for determining at least one optical parameter of an optical lens
JP7373378B2 (ja) レンズ測定装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20137029852

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13847713

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13847713

Country of ref document: EP

Kind code of ref document: A1