WO2014046207A1 - 視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法 - Google Patents

視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法 Download PDF

Info

Publication number
WO2014046207A1
WO2014046207A1 PCT/JP2013/075356 JP2013075356W WO2014046207A1 WO 2014046207 A1 WO2014046207 A1 WO 2014046207A1 JP 2013075356 W JP2013075356 W JP 2013075356W WO 2014046207 A1 WO2014046207 A1 WO 2014046207A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
sight
information
subject
sight information
Prior art date
Application number
PCT/JP2013/075356
Other languages
English (en)
French (fr)
Inventor
正朝 水野
大輔 宇野
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP13839259.2A priority Critical patent/EP2899584B1/en
Priority to JP2014536918A priority patent/JP6020577B2/ja
Publication of WO2014046207A1 publication Critical patent/WO2014046207A1/ja
Priority to US14/661,498 priority patent/US20150293381A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/025Methods of designing ophthalmic lenses considering parameters of the viewed object
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/021Lenses; Lens systems ; Methods of designing lenses with pattern for identification or with cosmetic or therapeutic effects

Definitions

  • the present invention relates to a gaze information correction device, a gaze information correction method, a gaze information detection device, a gaze information detection method, a spectacle lens design method, a spectacle lens manufacturing method, a spectacle lens selection device, a spectacle lens selection method, and a gaze tracking result evaluation.
  • the present invention relates to an apparatus, a visual performance notification method, a program, a recording medium, a spectacle lens, a measurement system, and a measurement method.
  • the line-of-sight detection apparatus has an eyeball camera, and obtains line-of-sight information such as a gazing point and a line-of-sight direction from a pupil image obtained by the camera.
  • line-of-sight information such as a gazing point and a line-of-sight direction from a pupil image obtained by the camera.
  • an infrared ray is applied from the front of the eyeball, and an infrared reflection image by the cornea is taken using an eyeball camera,
  • a method for calculating a gazing point and a line-of-sight direction using a pupil image and an infrared reflection image is known.
  • Patent Document 1 is known as a type in which an eyeball camera is attached to a photographer himself. According to Patent Literature 1, a configuration is described in which an eyeball camera is mounted on a fixed portion that extends forward from the portion mounted on the head, and a pupil image or the like is captured.
  • the subject goes through a so-called calibration stage in which he or she gazes at about 2 to 9 marks placed in front of the subject and photographs an eyeball image at that time.
  • calibration stage in which he or she gazes at about 2 to 9 marks placed in front of the subject and photographs an eyeball image at that time.
  • Patent Document 2 is known as a type that is installed on a desk or the like without mounting an eyeball camera on the photographer himself. According to the description in Patent Document 2, an eyeball camera is installed on a desk, and the eyeball of the subject is captured by the eyeball camera. The calibration method and the calculation of the gaze direction in an arbitrary direction after calibration are the same as the configuration described in Patent Document 1.
  • Patent Document 2 there is no need to install a device on the subject himself, but there is no troublesomeness, but when only the eyeball is rotated and the side is viewed, and when the side is viewed with head rotation Therefore, it is impossible to calculate an accurate rotation angle / gaze direction vector. For this reason, in the case of a desktop installation type, a head detection means for detecting head movement is often further required.
  • Non-Patent Document 1 describes an experiment in which gaze detection is performed on a subject wearing a progressive power lens using a conventional gaze detection device.
  • the result of the conventional gaze detection apparatus is evaluated without error correction.
  • the error when applying a progressive power lens differs depending on the prescription power (S degree, C degree, astigmatism axis), addition power, and progressive zone length of the lens worn by the subject, so correction is performed for each progressive power lens. There must be. That is, the experiment is performed with three subjects, and it is necessary to perform evaluation after applying individual correction to each of the subjects.
  • Patent Document 3 an apparatus for measuring spectacle wearing parameters of a subject based on images of the front and side surfaces of the face of the subject wearing spectacles is known (see Patent Document 3).
  • the conventional gaze detection device does not keep in mind that the subject wears an optical instrument that refracts light such as glasses and enters the eyeball, and the gaze connecting the center of rotation and the gaze point is connected.
  • the gaze direction and the eyeball rotation angle are calculated on the assumption that Therefore, when the subject wears the optical instrument, the actual line of sight of the subject is refracted according to the position of the optical instrument, and thus an error is included between the detection result and the actual line-of-sight information. .
  • This error is a size that cannot be ignored when designing a lens.
  • the design was actually performed using the output results of a conventional eye-gaze detection device and the subject wore it, the eye-gaze used at the time of design and the actual subject Therefore, the aberration actually felt by the test subject was different from the design, and the test subject was dissatisfied.
  • the line-of-sight information correction apparatus is an input unit that receives line-of-sight information obtained based on the state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball. And an arithmetic unit that corrects the line-of-sight information input to the input unit using optical information related to the refraction of the light by the optical instrument.
  • the line-of-sight information correction apparatus according to the first aspect further includes a storage unit that stores the optical information.
  • the line-of-sight information correction apparatus according to the first or second aspect further includes a receiving unit that receives the optical information.
  • a receiving unit that receives the optical information.
  • the optical instrument is preferably a spectacle lens.
  • a storage unit that stores a ray tracing result previously performed on the optical instrument and the storage unit It is preferable to further include a search unit for searching for a ray tracing result close to the line-of-sight information from the ray tracing results stored in (1).
  • the line-of-sight information correction apparatus in the line-of-sight information correction apparatus according to the sixth aspect, it is preferable that the line-of-sight information correction apparatus further includes an interpolation unit for interpolating light rays close to the line-of-sight information from the light ray tracking search result.
  • the gaze point coordinate information of the subject is further used when the calculation unit performs correction.
  • it is preferable that distortion information of the visual field photographing unit is further used when the calculation unit corrects. .
  • the gaze information correction method includes an input step of inputting gaze information obtained based on the state of the eyeball of the subject wearing an optical instrument that refracts light and enters the eyeball.
  • a calculation step of correcting the line-of-sight information input to the input unit using optical information relating to the refraction of the light by the optical instrument is preferable that the calculation step includes using the optical information stored in a storage unit.
  • the calculating step includes using the optical information received by a receiving unit.
  • the calculating step includes outputting the corrected line-of-sight information.
  • a spectacle lens is used as the optical instrument.
  • the method further includes an interpolation step of interpolating a ray close to the line-of-sight information from the ray tracing search result.
  • the subject's gazing point coordinate information is further used when correcting in the calculation step.
  • the gaze information correction method in the gaze information correction method according to any one of the first to twenty-first aspects, at least two of the gaze detection devices that provide gaze information of the subject, the optical instrument, and the subject. It is preferable that the method further includes a relative position detecting step for detecting relative position information, and further using the relative position information when correcting in the calculating step.
  • the gaze information detecting device detects gaze information obtained based on the state of the eyeball of the subject wearing an optical instrument that refracts light and enters the eyeball.
  • a calculation unit that corrects the line-of-sight information detected by the detection unit using optical information relating to refraction of the light by the optical instrument.
  • the line-of-sight information detection device in the line-of-sight information detection device according to the twenty-third aspect, it is preferable to further include a storage unit that stores the optical information.
  • the line-of-sight information detection apparatus in the line-of-sight information detection device of the twenty-third or twenty-fourth aspect, it is preferable that the line-of-sight information detection apparatus further includes a receiving unit that receives the optical information.
  • the gaze information detecting apparatus in the gaze information detecting device according to any one of the twenty-third to twenty-fifth aspects, it is preferable that the gaze information detecting apparatus further includes an output unit that outputs the gaze information corrected by the calculation unit. .
  • the optical instrument is preferably a spectacle lens.
  • the detection unit measures an eyeball part of the subject and an eyeball part It is preferable to include a line-of-sight information calculation unit that calculates line-of-sight information from According to a twenty-ninth aspect of the present invention, in the line-of-sight information detection device according to any one of the twenty-third to twenty-eighth aspects, a field image capturing unit that captures the field of view of the subject and a captured image captured by the field image capturing unit It is preferable to further include a distortion correction unit that corrects distortion included in.
  • the horizontal width of the spectacle lens worn by the subject is D (mm)
  • the wearing When the distance between the corneal apex of the wearer is D1 (mm) and the distance from the apex of the wearer to the rotation point is D2 (mm), the total angle of view of the visual field photographing unit is atan (D / (2 ⁇ (D1 + D2))) ⁇ 2 or more is preferable.
  • a storage unit that stores a ray tracing result previously performed on the optical instrument and the storage unit It is preferable to further include a search unit for searching for a ray tracing result close to the line-of-sight information from the ray tracing results stored in (1).
  • the gaze information detecting device according to the thirty-first aspect further includes an interpolation unit for interpolating light rays close to the gaze information from the light ray tracking search result.
  • the subject's gaze coordinate information is further used when the calculation unit performs correction.
  • it is preferable that distortion information of the visual field photographing unit is further used when the calculation unit corrects. .
  • the gaze information detection device in the gaze information detection device according to any one of the twenty-third to thirty-fifth aspects, at least two of the gaze detection devices that provide gaze information of the subject, the optical instrument, and the subject. It is preferable that a relative position detector for detecting one relative position information is further provided, and the relative position information is further used when the calculation unit corrects the relative position information.
  • the calculating step includes using the optical information stored in a storage unit.
  • the calculation step includes using the optical information received by a receiving unit.
  • the calculation step preferably includes outputting the corrected line-of-sight information.
  • a spectacle lens is used as the optical instrument.
  • the detecting step includes an eyeball photographing step for measuring the eyeball part of the subject, and an eyeball photographing unit. And a line-of-sight information calculation step of calculating line-of-sight information from
  • a field-of-view photographing step of photographing the subject's field of view, and a photograph taken by the field-of-view photographing unit It is preferable to further include a distortion correction step of correcting distortion included in the image.
  • the horizontal width of the spectacle lens worn by the subject is D (mm)
  • the wearing When the distance between the corneal apex of the wearer is D1 (mm) and the distance from the corneal apex of the wearer to the rotation point is D2 (mm), in the visual field imaging step, the total angle of view is atan (D / (2 ⁇ (D1 + D2))) ⁇ 2 or more.
  • a storage step of storing a ray tracing result previously performed on the optical instrument It is preferable that the method further includes a retrieval step of retrieving a ray tracing result close to the line-of-sight information from the ray tracing results stored in the section.
  • the method further includes an interpolation step of interpolating light rays close to the line-of-sight information from the ray tracing search result.
  • the forty-seventh aspect of the present invention in the line-of-sight information detection method according to any one of the thirty-seventh to forty-sixth aspects, it is preferable to further use gaze point coordinate information of the subject when correcting in the calculation step. .
  • the line-of-sight information detection method in the line-of-sight information detection method according to any one of the 37th to 49th aspects, at least two of the line-of-sight detection devices that provide line-of-sight information of the subject, the optical instrument, and the subject. It is preferable that the method further includes a relative position detecting step for detecting relative position information, and further using the relative position information when correcting in the calculating step.
  • the line-of-sight information obtained based on the state of the eyeball of the subject wearing the optical instrument that refracts light and enters the eyeball is obtained as the optical instrument.
  • the correction step of correcting using optical information relating to the refraction of the light in the lens, the aberration of the spectacle lens worn by the subject based on the corrected line-of-sight information, the position information in the optical instrument, and the optical information A design step for determining at least one of distribution and lens surface shape.
  • the design step uses the corrected line-of-sight information and position information in the optical instrument to determine the line-of-sight of the subject. And determining the intersection group of the optical instrument and determining at least one of the aberration distribution and the lens surface shape of the spectacle lens based on the determined intersection group.
  • the design step obtains a predetermined line-of-sight region on the spectacle lens based on the obtained intersection group.
  • at least one of the aberration distribution and the lens surface shape is determined using the intersection group and the line-of-sight region.
  • line-of-sight information obtained based on a state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball is obtained as the optical instrument.
  • the correction step of correcting using optical information relating to the refraction of the light in the lens, the aberration of the spectacle lens worn by the subject based on the corrected line-of-sight information, the position information in the optical instrument, and the optical information A design step for determining at least one of the distribution and the lens surface shape, and a processing step for processing the spectacle lens according to the determination result.
  • the design step uses the corrected line-of-sight information and the position information in the optical instrument to determine the line-of-sight of the subject.
  • the design step obtains a predetermined line-of-sight region on the spectacle lens based on the obtained intersection group. It is preferable to include determining the aberration distribution and the surface shape using the intersection point group and the line-of-sight region.
  • the spectacle lens selection device includes: a detection unit that detects gaze information of the subject based on the state of the eyeball of the subject wearing an optical instrument that refracts light and enters the eyeball; A calculation unit that corrects the line-of-sight information detected by the detection unit using optical information related to refraction of the light in the optical instrument, the corrected line-of-sight information, position information in the optical instrument, and the A selection unit configured to select a spectacle lens worn by the subject from a plurality of spectacle lens groups having different aberration distributions and lens surface shapes based on the optical information.
  • the eyeglass lens selection method uses the optical instrument to obtain line-of-sight information obtained based on the state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball.
  • the gaze tracking result evaluation apparatus is the gaze information correction apparatus according to any one of the first to eleventh aspects, or any one of the twenty-third to thirty-sixth aspects.
  • a line-of-sight information detection device is provided.
  • the visual performance notification method uses the optical instrument to obtain gaze information obtained based on the state of the eyeball of the subject wearing the optical instrument that refracts light and enters the eyeball.
  • the visual performance notification method uses the optical instrument to obtain gaze information obtained based on the state of the eyeball of the subject wearing the optical instrument that refracts light and enters the eyeball.
  • the program inputs to the computer the line-of-sight information obtained based on the state of the eyeball of the subject wearing the optical instrument that refracts light and enters the eyeball; And a calculation step of correcting the line-of-sight information input to the input unit using optical information relating to refraction of the light by the optical instrument.
  • the program detects a line-of-sight information based on a state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball, and the optical And a calculation step of correcting the detected line-of-sight information using optical information relating to refraction of the light by the instrument.
  • the program uses the optical instrument to obtain line-of-sight information obtained based on the state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball.
  • the program uses the optical instrument to obtain line-of-sight information obtained based on the state of the eyeball of a subject wearing an optical instrument that refracts light and enters the eyeball.
  • the correction step of correcting using optical information relating to the refraction of the light, the corrected eye-gaze information, the positional information and the optical information in the optical instrument, and the aberration distribution of the spectacle lens worn by the subject And a design step for determining at least one of the lens surface shapes, and a processing step for processing the spectacle lens by a predetermined processing device in accordance with the determination result.
  • the program uses the optical instrument to obtain line-of-sight information obtained based on the state of the eyeball of a subject wearing an optical instrument that refracts light and makes it incident on the eyeball.
  • a selection step of selecting a spectacle lens worn by the subject from the spectacle lens group is recorded on a computer-readable recording medium.
  • the spectacle lens having a predetermined aberration distribution is formed such that the aberration distribution indicates the visual performance of a subject wearing an optical instrument that refracts light and enters the eyeball.
  • the visual performance is obtained by correcting the line-of-sight information obtained based on the state of the eyeball of the subject wearing the optical instrument using the optical information related to the refraction of the light by the optical instrument.
  • This is a corrected intersection group that is an intersection of the line-of-sight information and the optical instrument worn by the subject, or a line-of-sight area based on the corrected intersection group.
  • the spectacle lens having a predetermined aberration distribution is formed such that the aberration distribution indicates the visual performance of a subject wearing an optical instrument that refracts light and enters the eyeball.
  • a measurement system includes an imaging unit that continuously images spectacles worn by a subject, and a mark attached to a lens or frame of the spectacles from an image captured by the imaging unit.
  • an extraction unit that continuously extracts the contour of the lens or frame of the glasses, and a change amount of the position of the mark or the contour extracted by the extraction unit, and based on the change amount, the glasses And a change amount measuring unit for measuring a change amount of the position of.
  • a relative position of the imaging unit with respect to the face of the subject is fixed.
  • the change amount measuring unit is It is preferable to measure at least one of the parallel movement amount of the glasses and the rotation amount about the front-rear direction based on the change amount of the position of the at least two marks.
  • the measurement system in the measurement system according to any one of the 70th to 72nd aspects, it is preferable that the measurement system further includes a line-of-sight detection unit that detects the direction of the line of sight of the subject.
  • the amount of change in the position of the glasses measured by the amount-of-change measurement unit and the line of sight of the subject detected by the line-of-sight detection unit is preferable to further include a transmission point detection unit that detects a position of a transmission point through which the line of sight of the subject passes in the lens of the glasses based on the direction.
  • the calibration unit that calibrates the line-of-sight detection unit for each of a plurality of different wearing states of the same glasses
  • the transmission point detection unit performs the wearing state corresponding to the change amount of the position of the glasses measured by the change amount measurement unit from among the results of the plurality of wearing state calibrations performed by the calibration unit.
  • the imaging unit continuously images a part of the glasses and the face of the subject
  • the extraction unit includes , From the image captured by the imaging unit, to continuously extract the mark attached to the lens or frame of the spectacles, or the contour of the lens or frame of the spectacles, and some feature points of the face,
  • the change amount measurement unit calculates a change amount of a relative position of the mark or the contour with respect to the feature point extracted by the extraction unit, and based on the change amount, the relative amount of the glasses with respect to a part of the face It is preferable to measure the amount of change in position.
  • a measurement method includes an imaging step of continuously imaging spectacles worn by a subject, and a mark attached to a lens or frame of the glasses from an image captured by the imaging step.
  • the imaging step in the imaging step, the eyeglasses worn by the subject are continuously imaged by the imaging unit whose relative position with respect to the face of the subject is fixed. It is preferable to do this.
  • the measurement method according to the 78th or 79th aspect at least two marks are attached to the pair of lenses or frames of the glasses, and in the change amount measuring step, It is preferable to measure at least one of the parallel movement amount of the glasses and the rotation amount about the front-rear direction based on the change amount of the position of the at least two marks.
  • the change amount of the position of the glasses measured by the change amount measurement step and the gaze of the subject detected by the gaze detection step is preferable to further include a transmission point detecting step of detecting a position of a transmission point through which the line of sight of the subject passes in the lens of the glasses based on the direction.
  • the spectacles and a part of the face of the subject are continuously imaged, and in the extraction step , From the image captured by the imaging step, continuously extract the mark attached to the lens or frame of the glasses, or the contour of the lens or frame of the glasses and the feature points of a part of the face,
  • the change amount measuring step a change amount of a relative position of the mark or the contour with respect to the feature point extracted in the extraction step is calculated, and based on the change amount, the spectacles relative to a part of the face is calculated. It is preferable to measure the amount of change in position.
  • the measurement method according to any one of the 78th to 84th aspects at least three marks are attached to a pair of lenses or frames of the glasses, and the amount of change In the measurement step, it is preferable to measure the amount of rotation about at least one of the horizontal direction and the vertical direction of the glasses based on the amount of change in the position of the at least three mark.
  • the 86th aspect of the present invention in the measurement system according to any one of the 70th to 77th aspects, whether or not the spectacle lens or the spectacle frame is suitable for the subject is determined based on the amount of change. Is preferred.
  • the 87th aspect of the present invention in the measurement method according to any one of the 78th to 85th aspects, whether or not the spectacle lens or the spectacle frame is suitable for the subject is determined based on the amount of change. Is preferred.
  • the present invention it is possible to contribute to more accurate detection of line-of-sight information. Even when the subject uses glasses, the eye movement data can be correctly calibrated over the entire field of view.
  • FIG. 3 is an astigmatism diagram of the lens according to the first embodiment.
  • 5 is a flowchart showing a gaze error correction procedure according to the first embodiment.
  • FIG. 6 is a flowchart illustrating a lens design method according to the first embodiment. 6 is a flowchart illustrating a lens design method according to the first embodiment. 5 is a flowchart illustrating a lens selection method according to the first embodiment.
  • surface which shows the lens shape basic data of the spectacle lens which concerns on Example 1 of 1st Embodiment. 3 is a table showing an example of lens shape basic data of the eyeglass lens according to Example 1;
  • FIG. 3 is a diagram illustrating transmitted light information of the eyeglass lens according to the first embodiment.
  • FIG. 3 is a diagram illustrating transmitted light information of the eyeglass lens according to the first embodiment.
  • FIG. 3 is a diagram illustrating transmitted light information of the eyeglass lens according to the first embodiment.
  • 10 is a table showing an example of transmitted light information of a spectacle lens according to Example 2.
  • FIG. 6 is a diagram illustrating transmitted light information of a spectacle lens according to Example 2.
  • FIG. 6 is a diagram illustrating transmitted light information of a spectacle lens according to Example 2.
  • FIG. 6 is a diagram illustrating transmitted light information of a spectacle lens according to Example 2.
  • FIG. 6 is a diagram illustrating transmitted light information of a spectacle lens according to Example 2.
  • 10 is a table showing an example of transmitted light information of a spectacle lens according to Example 2.
  • FIG. 10 is a table showing lens shape basic data of a spectacle lens according to Example 3.
  • FIG. 10 is a diagram illustrating transmitted light information of a spectacle lens according to Example 3.
  • FIG. 10 is a diagram illustrating transmitted light information of a spectacle lens according to Example 3.
  • 10 is a table showing an example of transmitted light information of a spectacle lens according to Example 3.
  • FIG. 10 is a diagram illustrating one form of evaluation of a line-of-sight detection result according to the third embodiment. The figure which shows one form of evaluation of the gaze detection result which concerns on Example 4 of 1st Embodiment.
  • FIG. 10 is a table showing lens shape basic data of a spectacle lens according to Example 3.
  • FIG. 10 is a diagram illustrating transmitted light information of a spectacle lens according to Example 3.
  • 10 is a table showing an example of transmitted light information of a spectacle lens according to Example 3.
  • FIG. 10 is a diagram illustrating one form of evaluation of a line-of-sight detection result according to the third embodiment. The figure which shows
  • FIG. 10 is a diagram illustrating one form of evaluation of a line-of-sight detection result according to the fourth embodiment. It is a figure explaining the outline of the spectacles wearing state measuring system by the 2nd Embodiment of this invention. It is a figure explaining the structure of a spectacles imaging device. It is a figure explaining the mark attached
  • FIG. It is a figure explaining the point which a test subject's eyes
  • FIG. It is a figure which shows a mode that a program is provided to a computer in 1st Embodiment. It is a figure which shows the flowchart of the program in 2nd Embodiment. It is a figure which shows the gaze information correction system of 1st Embodiment.
  • FIG. 1 is a perspective view illustrating a configuration of a visual line detection device 100 according to the present embodiment.
  • the line-of-sight detection device 100 includes a headband HB, an eyeball camera CMR, and an output cable OL.
  • the line-of-sight detection device 100 for example, EMR-9 of NAC Image Technology Co., Ltd., ISCAN Inc. And AA-ETL-400B and AA-ETL-500B.
  • the headband HB is worn on the subject's head.
  • the eyeball camera CMR images the pupil of the subject with the headband HB attached.
  • the line-of-sight detection apparatus 100 may include a processing unit (not illustrated) that calculates where the subject is looking from the result of photographing by the eyeball photographing camera CMR.
  • the line-of-sight detection device 100 may have a configuration including an infrared light emitting unit for detecting the corneal apex of the eyeball of the subject and a field-of-view camera for photographing the subject's forward visual field.
  • the field of view camera In the case of a configuration having a field of view camera, the field of view camera needs to be continuously photographed regardless of the movement of the head, so it needs to be attached at a position synchronized with the movement of the head. If two field cameras are attached, they are attached directly above each eyeball, for example, on the headband, so as to be closer to the actual field of view. In order to make it closer to the actual field of view, for example, it is preferable to attach the headband downward. If you only have one field of view camera, attach it to the center of both eyes, that is, on the headband just above the nose. It is also desirable that this is attached at eye level.
  • the correction method in the distortion correction unit can obtain distortion information such as distortion.
  • a method may be used in which a sheet of paper on which a lattice pattern is drawn is photographed, distortion information is measured from the photographed image, and correction is performed to cancel the distortion information.
  • the object point position is corrected by adding the distortion correction means for correcting the distortion of the visual field camera, it is possible to obtain line-of-sight information with less error. In this way, it is possible to obtain line-of-sight information with less errors than in the past, and to obtain the intersection between the line-of-sight and the lenses with less errors than in the past. ⁇ Because it can be provided, lenses with high customer satisfaction can be provided.
  • FIG. 2 is a diagram illustrating a configuration of the line-of-sight information correction apparatus 200 according to the present embodiment.
  • a general-purpose personal computer is used as the line-of-sight information correction apparatus 200.
  • the line-of-sight information correction apparatus 200 includes a main body unit 201, an input unit 202, and an output unit 203.
  • a dedicated device may be used instead of the general-purpose personal computer.
  • the line-of-sight information correction apparatus 200 may be formed in a small size and incorporated in the line-of-sight detection apparatus 100.
  • the line-of-sight information correction system 400 is configured by the line-of-sight detection device 100 in FIG. 1 and the line-of-sight information correction device 200 in FIG.
  • a main body unit 201 includes, for example, a connection terminal CT that can connect a USB terminal, a general-purpose terminal, and the like by wire, a communication unit CM that wirelessly communicates information, and an optical device such as a CD or a DVD.
  • a connection terminal CT that can connect a USB terminal, a general-purpose terminal, and the like by wire
  • a communication unit CM that wirelessly communicates information
  • an optical device such as a CD or a DVD.
  • Slot SL into which a magnetic storage medium or SD card or other magnetic storage medium can be inserted a storage unit MR such as a hard disk drive provided in the main unit 201, a CPU, a memory, etc.
  • a processing unit PR to be performed.
  • the main body 201 can be connected to the output cable OL of the line-of-sight detection device 100 via, for example, the connection terminal CT.
  • the line-of-sight information correction apparatus 200 and the line-of-sight detection apparatus 100 may be configured to be wirelessly connected via the communication unit CM. Further, the output result from the line-of-sight detection device 100 may be stored in a storage medium such as an optical storage medium or a magnetic storage medium, and the storage medium may be inserted into the slot ST and read.
  • the output unit 203 has an image display device MT such as a display.
  • the image display device MT outputs information via the main body unit 201, for example. Also, information via the main body 201 can be output from, for example, the connection terminal CT or the slot SL, or can be output to the storage unit MR.
  • a general-purpose personal computer there is an advantage that it can be carried out easily.
  • FIG. 3 and 4 are diagrams showing the positional relationship between the eyeball camera CMR and the eyeball EB of the subject.
  • FIG. 3 shows a case where the subject wears the spectacle lens L
  • FIG. 4 shows a case where the subject does not wear the spectacle lens L.
  • the position of the eyeball camera CMR is adjusted so as to photograph the eyeball EB of the subject wearing the spectacle lens L. Specifically, the position of the eyeball camera CMR is adjusted so as to photograph the pupil P of the subject via the eyeglass lens L.
  • FIG. 4 shows an example in which the eyeball camera captures the eyeball of the subject when the spectacle lens is not worn as an optical instrument that changes the line-of-sight direction.
  • the direction in which the eyeball EB faces is the same. Nevertheless, the direction in which the pupil is imaged after passing through the eyeglass lens L in FIG. 3 (R2 ⁇ R3) is different from the direction in which the pupil is imaged in FIG. 4 (D2 ⁇ D3). This is because light through the spectacle lens L is refracted. As described above, in the present embodiment, the spectacle lens L is used as an optical instrument that refracts light and enters the eyeball. 3 and 4 are different in the image of the pupil imaged by the eyeball camera CMR, and thus there may be an error in the eyeball position, line-of-sight direction, and eyeball rotation angle calculated from the captured image. is there.
  • FIG. 5 shows an example of a line of sight when a subject wearing a spectacle lens L as an optical instrument that refracts light and enters the eyeball is looking at a certain point of gaze GP.
  • the intersection of the straight line and the spectacle lens is D1 at the intersection of the straight line and the surface, and D2 at the intersection of the light beam and the back surface.
  • the optical path of the actual light beam is not connected in a straight line due to the refraction action of the spectacle lens, the intersection of the light beam and the surface of the spectacle lens is R1, and the intersection of the light beam and the back surface is R2.
  • the line-of-sight direction (OC ⁇ D2) obtained by the line-of-sight detection device 100 does not match the line-of-sight direction (OC ⁇ R2) of the subject.
  • the eye rotation angle of the subject calculated from the line-of-sight direction does not match the detected value and the actual value.
  • the line-of-sight direction and the eyeball rotation angle obtained by the line-of-sight detection device 100 are values including errors. There is a possibility. This error is a size that cannot be ignored when investigating where the subject wearing the spectacles sees the object through the spectacle lens L, or when designing the spectacle lens based on the investigation result.
  • FIG. 6 is an astigmatism diagram of a lens having an addition power of 3.
  • astigmatism is 1.0 diopter at a distance of 3 mm from the center, which may be acceptable.
  • astigmatism becomes 1.5 diopters at a distance of 5 mm from the horizontal direction, and may be an unacceptable value depending on the wearer.
  • the performance differs depending on the difference of 2 mm, it is effective to eliminate even an error of several millimeters.
  • the progressive power lens has a progressive zone length as a value indicating how far the near reference point, which is a reference point for near vision, is located below.
  • the performance of a lens with a progressive zone length of 12 mm is significantly different from that of a lens with a progressive zone length of 14 mm.
  • the spectacle lens L in particular, it is effective to eliminate even an error of several millimeters. Therefore, when the eye gaze detection apparatus 100 is used with the subject wearing spectacles, it is necessary to correct the gaze direction and the eyeball rotation angle detected by the gaze detection apparatus 100 by the gaze information correction apparatus 200.
  • the horizontal width of the lens is D (mm)
  • the distance between the corneal apexes of the wearer is D1 (mm)
  • the wear When the distance from the vertex of the person's cornea to the rotation point is D2 (mm), the total field angle of the visual field photographing unit is atan (D / (2 ⁇ (D1 + D2))) ⁇ 2 or more,
  • the number of pixels in the horizontal direction of the field of view photographing unit is D / 0.1 mm or more.
  • the field of view camera has a total angle of view of 112 degrees or more and the number of pixels in the horizontal direction. More than 750 pixels are desirable.
  • the output of the visual field photographing unit of a commercially available line-of-sight detection apparatus is VGA, which is insufficient for the purpose of the design of the present invention.
  • FIG. 7 is a flowchart showing an outline of the operation procedure.
  • line-of-sight information is acquired using the line-of-sight detection device 100 (step 161).
  • the line-of-sight information of a subject wearing an optical instrument for example, eyeglass lens L
  • the line-of-sight information includes errors in the line-of-sight direction and the eyeball rotation angle caused by light refraction in the optical instrument.
  • the line-of-sight information is input to the line-of-sight information correction apparatus 200 (step 162).
  • the line-of-sight information correction apparatus 200 corrects the line-of-sight information input to the line-of-sight information correction apparatus 200 using the optical information of the optical instrument worn by the subject (step 163).
  • the optical information is information related to refraction of light in the optical instrument.
  • optical information of a single focus spherical lens includes the curvature radius of the front surface, the curvature radius of the back surface, the lens thickness, the lens refractive power, and the like.
  • the forward tilt angle and the warp angle of the lens may be included.
  • the corneal vertex distance the distance between the lens center and the corneal vertex
  • the corneal rotation point distance the distance between the corneal apex and the rotation point
  • a prescription power may be included that can lead to the backside radius of curvature at run time.
  • optical information in the case of a single-focus astigmatic lens includes the curvature radius of the front surface, the base curvature radius of the back surface, the cross curvature radius of the back surface, the lens thickness, and the lens refractive power.
  • the forward tilt angle and the warp angle of the lens may be included.
  • the corneal vertex distance the distance between the lens center and the corneal vertex
  • the corneal rotation point distance the distance between the corneal apex and the rotation point
  • a prescription power S / C that can derive the base curvature radius / cross curvature radius of the back surface at the time of execution may be included.
  • the optical information can be the parameters that can reproduce the surface shape of the front and back surfaces, the lens thickness, the lens refractive power, etc., and the relative position between the lens and the rotation point that is the center of rotation of the eyeball.
  • it may include the forward tilt angle and warp angle of the lens, the corneal apex distance (distance between the lens center and the corneal apex), and the corneal rotation point distance (distance between the corneal apex and the rotation point).
  • a sag amount in the optical axis direction that can be measured by a three-dimensional measuring device or the like can be considered. Further, when the sag amount can be divided into several constituent elements, it is possible to adopt a configuration of a surface-shaped base spherical base curvature radius, a base spherical cross curvature radius, and a residual sag amount.
  • the surface shape includes another expression such as an aspherical surface or a polynomial
  • a parameter necessary for expressing the expression may be included.
  • the above optical information may be large.
  • the data tends to be large.
  • As a method for reducing the storage area in such a case it is conceivable to divide the prescription range into several subdivided groups and to use the lens shape basic data (all or a part) common to each group. Since it is very inconvenient for practical use not to fit in one memory chip per lens series, these storage area reduction methods are useful.
  • the surface shape is expressed with a sag mesh, such as in the case of a progressive-power lens, if priority is given to the reproducibility of the surface shape, the mesh interval of the sag mesh will be narrowed, the amount of data will be large, and the calculation time for eye-gaze detection will be increased. become longer.
  • the error correction means is applied to the stored data storing the result obtained from the line-of-sight detection device 100, or is applied in real time to the result obtained from the line-of-sight detection device 100, the calculation time is reduced. Is often required.
  • the shape is reproduced according to the basic lens shape data for a portion having a characteristic surface shape, for example, a range of 10 mm centered on the meridian in the case of a progressive power lens.
  • a calculation reduction method such as recreating as a single focal point or, most simply, roughening a sag mesh is useful.
  • the optical information as described above may be stored in the storage unit MR of the line-of-sight information correction apparatus 200, for example, or may be stored in the line-of-sight information correction apparatus 200 from the outside via the connection terminal CT, the communication unit CM, the slot SL, or the like. You may make it input.
  • the processing unit PR is obtained from the outside as optical information, for example, through optical information stored in the storage unit MR, the connection terminal CT, the communication unit CM, the slot SL, or the like.
  • Optical information can be used.
  • a storage medium such as a memory card is created for each lens series in order to be able to correspond to different lens series, and each prescription in the lens series is stored in each storage medium.
  • store data such as surface shape basic data which can respond
  • the processing unit PR obtains a light beam passing through the gazing point position among light beams passing through the rotation point from the gazing point position, the lens shape, and the rotation point.
  • the relative positional relationship when placing the gazing point, lens, and rotation point is the anteversion angle, warp angle, corneal vertex distance (distance between the lens center and corneal vertex), and the distance between the corneal rotation points in the surface shape basic data. (Distance between corneal apex and convolution point) needs to be considered.
  • the relative position of the subject's lens is different from the default value obtained from the surface shape basic data, it is more accurate to determine the relative position using the measured value at this stage.
  • the light beam is generally obtained by using a tracking method such as a sequential tracking method or a Newton method, but other methods may be used.
  • a line-of-sight direction vector (R1 ⁇ GP) and an emission point coordinate R1 are obtained.
  • the first line-of-sight vector (OC ⁇ R2) is adopted as the corrected line-of-sight direction, and the value obtained by converting the angle of the first line-of-sight direction vector (OC ⁇ R2) is adopted as the corrected eyeball rotation angle.
  • the optical axis is used as a reference for angle conversion, but a natural line-of-sight direction may be used as a reference. If the line-of-sight direction toward the gazing point is required, the second line-of-sight direction vector (R1 ⁇ GP) may be calculated and used. If the incident coordinates to the optical instrument are required, R2 may be used. In the case where the coordinates of injection from the optical instrument are required, R1 may be adopted.
  • the processing unit PR receives the optical information stored in the storage unit MR, or the connection terminal CT or the communication unit. Data relating to the optical instrument worn by the subject is retrieved from optical information obtained from the outside via CM, slot SL, and the like. Thereafter, the processing unit PR searches for data relating to light rays passing near the gazing point obtained from the line-of-sight detection device 100. After that, by interpolating a data group related to the light ray passing near the gazing point, the light ray passing through the gazing point and the rotation point is obtained, and the line-of-sight information corrected from the light ray is obtained.
  • the pitch needs to be set appropriately depending on the light beam passing range of the optical instrument and the required correction accuracy. For example, you may make it let a light beam pass with a 5 mm pitch in the back surface of an optical instrument. Further, if priority is given to calculation time, the pitch may be set larger than 5 mm, and if priority is given to accuracy, the pitch may be set smaller than 5 mm. In the case of a progressive power lens, the pitch is set to 3 mm or less, preferably about 1 mm, for example.
  • the incident light information includes a direction vector from the turning point toward the optical instrument.
  • the incident intersection information includes intersection coordinates of a light beam traveling from the rotation point to the optical instrument and the optical instrument.
  • the exit ray information includes a direction vector from the optical instrument to the point of sight. Further, the exit intersection information includes the intersection coordinates of the optical instrument and the light beam traveling from the optical instrument to the gazing point.
  • the processing unit PR performs ray search and interpolation.
  • the exit ray group is reproduced from the exit ray information and the exit intersection point information, and two close to the gazing point are selected from the exit ray group.
  • An incident ray corresponding to two exit rays close to the gazing point is selected, and the selected two exit rays and the incident ray are interpolated to generate a ray passing through the rotation point and the gazing point. Since the generated ray is a ray obtained by interpolation, it does not necessarily pass through the gazing point, but may pass very close to the gazing point, so this interpolation ray is used as the ray passing through the gazing point. can do.
  • the intersection of the interpolated light beam can be obtained by performing not only the interpolation of the incident light beam information and the output light beam information but also the intersection of the optical device. Further, the line-of-sight direction and the rotation angle can be obtained from the interpolated ray information.
  • the relative position of the subject, glasses, and line-of-sight detection device does not change because the head is fixed or sitting in a chair, the error has been sufficiently corrected by the method described so far.
  • the body is not stable, such as moving the face greatly, moving the face quickly, or exercising, the relative position of the subject, the glasses, and the line-of-sight detection device changes during the measurement. End up.
  • the inventor experimented this was also a cause of a big error. Therefore, it is accompanied by a relative position detecting means and a relative position correcting means for detecting at least two of the subject, the glasses and the line-of-sight detecting device, if possible, all the relative positions and correcting the deviation of the relative positions. It is desirable.
  • the relative position detection means detects at least one feature point of the subject and the glasses worn by the subject, if possible, and measures the feature point. This is achieved by setting to keep chasing.
  • the present invention is not limited to this, and it can also be achieved by installing a camera for detecting the relative position, or introducing a mechanism for detecting the relative positions using magnetic force.
  • the relative position correcting means calculates the relative position from the characteristic points of the subject and the glasses detected by the relative position detecting means and corrects it. Thereby, even if it is a case where the relative relationship of the test subject, spectacles, and line-of-sight detection apparatus has shifted
  • the corrected intersection of the corrected line-of-sight direction, the corrected eyeball rotation angle, the optical instrument and the corrected line-of-sight can be obtained.
  • refraction that is not 1 between the eyeball and the gazing point with respect to eyeball information such as an eyeball image, eyeball information such as a pupil image and an eyeball rotation angle, a gaze point, a lens incident gaze direction, a lens exit gaze direction, and a lens intersection.
  • eyeball information such as an eyeball image, eyeball information such as a pupil image and an eyeball rotation angle, a gaze point, a lens incident gaze direction, a lens exit gaze direction, and a lens intersection.
  • a line-of-sight related apparatus, a line-of-sight correction method, and the like that perform correction using the refractive index of a refractive object such as a lens having a refractive index or the refractive power based on the refractive index.
  • the processing unit PR and the slot SL may be fixed to the headband HB or the like.
  • a chip CH having a line-of-sight error correction function is used as the processing unit PR.
  • a storage medium such as an optical medium or a magnetic medium can be inserted.
  • the slot SL can read data such as optical information stored in a storage medium.
  • the processing speed is increased and error-corrected data is obtained in real time.
  • a separate field-of-view camera it is also possible to display a combination of the field-of-view camera video and error-corrected line-of-sight information It becomes. For this reason, it is possible to acquire data while confirming the response of the subject, which could not be acquired when the line-of-sight information acquisition and error correction were performed in separate steps.
  • the apparatus can be made compact.
  • the correction result may be evaluated using, for example, a line-of-sight tracking result evaluation apparatus.
  • the gaze tracking result evaluation apparatus first obtains the intersection between the spectacle lens and the gaze by using the corrected eye rotation angle that is the gaze error correction result, and then displays the obtained result. Display on the device.
  • the obtained result is displayed so as to correspond to the figure of the spectacle frame and the spectacle lens.
  • FIG. 9 (a) and FIG. 9 (b) show a picture of a spectacle frame and a spectacle lens and a corrected intersection.
  • a near reference point NP is drawn on the spectacle lens, and a spectacle frame FRM and a correction intersection ACP are also drawn at the same time.
  • the corrected intersection ACP has reached the near reference point NP when viewing the evaluation result of the right eye, but the near reference point NP is viewed when viewing the evaluation result of the left eye. It can be seen that the corrected intersection ACP has not reached. That is, in the case of this wearer, since the left eye cannot rotate to the position of the near reference point in normal life, it can be seen that the wearing lens is not on the wearer.
  • the range of large aberration of the spectacle lens is illustrated, so that it is easy to determine whether the habit of movement of the wearer's line of sight and the small range of aberration of the lens are compatible. Can be determined.
  • the corrected intersection does not pass through a region with large aberration, it can be seen that a lens that is aberrationally matched is attached.
  • the visual tracking result evaluation device When evaluating the correction result, for example, when a visual field camera is separately provided, the visual tracking result evaluation device displays a moving image captured by the visual field camera and an emission vector in the visual field direction from the corrected spectacle lens. By doing so, it is possible to clearly determine which point is being viewed at what angle. This makes it possible to pursue the cause of difficulty in viewing.
  • the line-of-sight tracking result evaluation apparatus by evaluating the correction result of the line-of-sight error using the line-of-sight tracking result evaluation apparatus, it becomes possible to perform an accurate evaluation of the line-of-sight error, and the frame or spectacle lens worn by the wearer It is possible to easily evaluate whether it is appropriate for the wearer.
  • the cause of discomfort that has been unclear up to now can be identified and improved. That is, refraction that is not 1 between the eyeball and the gazing point with respect to eyeball information such as an eyeball image, eyeball information such as a pupil image and an eyeball rotation angle, a gaze point, a lens incident gaze direction, a lens exit gaze direction, and a lens intersection.
  • an evaluation value calculation device and evaluation value calculation method that calculates an evaluation value using correction information obtained by performing correction using the refractive index of a refractive object such as a lens having a refractive index or refractive power based on the refractive index. can do.
  • a refractive object such as a lens having a refractive index or refractive power based on the refractive index.
  • a lens designed using the evaluation value can be realized, and a display method for displaying the evaluation value can be realized.
  • FIG. 10 is a flowchart showing a spectacle lens design method according to this embodiment.
  • a lens is designed for each wearer.
  • the gaze detection apparatus 100 and the gaze information correction apparatus 200 are prepared.
  • the prepared gaze detection device 100 is attached to a subject wearing an optical instrument such as a spectacle lens.
  • the line of sight of the wearer is measured (step 191)
  • the acquired line-of-sight information is input (step 192)
  • the error included in the input line-of-sight information is corrected (step 193).
  • the aberration distribution and the surface shape are determined so as to reduce the aberration in the use area (step 195). Since there is a limit to improving the aberration in all areas of the lens, the aberration in the use area can be preferentially reduced. For example, it can be considered that the astigmatism in the line-of-sight region on the subject's lens is designed to be 1.0 diopter or less. In addition, in a region where the intersection density is high or a region where the stay time is long, it is conceivable to further suppress the aberration, for example, by setting it to 0.5 diopter or less.
  • the distance area may be 0.5 diopters or less and the near area may be 1.0 diopters or less. Further, not only astigmatism but also other aberrations such as average spherical power and distortion, this region may be preferentially reduced.
  • FIG. 11 is a flowchart for designing a spectacle lens for a plurality of people.
  • a spectacle lens for a plurality of people for example, by collecting a large amount of corrected line-of-sight information, it is possible to make a product that reflects the common eye usage of humans.
  • the present invention When the present invention is applied to one person, it becomes a lens dedicated to that person, but a lens reflecting the common usage of eyes can be produced as a product that provides a comfortable view for many people. . As a result, an inexpensive spectacle lens can be provided.
  • the work of obtaining the corrected line-of-sight information of a plurality of persons can be obtained by repeatedly performing the same work as the process of acquiring the corrected line-of-sight information of one person (Step 201 to Step 203).
  • a plurality of corrected line-of-sight information acquired in this way a plurality of corrected eyeball rotation angles and intersections of optical instruments and lines of sight are obtained (step 204).
  • a plurality of intersections obtained in this way are statistically processed to obtain an area through which many people's lines of sight pass (step 205). At this time, it is desirable to consider the high density of intersections and the length of staying time.
  • the aberration distribution and the surface shape are determined so as to reduce the aberration in the region (step 206). Since there is a limit to improving the aberration in all areas of the lens, the aberration in the use area is preferentially reduced.
  • processing data is acquired in accordance with the processing pitch required by the processing machine.
  • the optimum pitch is selected depending on what kind of processing machine is used and what kind of processing tool is used.
  • the design data is input to the computer, and machining data with the pitch specified by the dedicated software is output.
  • the lens is manufactured by sending the output processing data to the processing machine.
  • the lens manufactured by such a method can be designed to match the wearer's line of sight with the lens in the actual wearing state and the aberration distribution of the lens, and provides a comfortable view for the wearer.
  • the above explanation is an example in the case of transmitting lens shape data obtained from the line-of-sight information corrected after measurement directly to the manufacturing apparatus, and processing using this data, but is limited to this. There is nothing.
  • the timing of data transfer and processing is arbitrary.
  • the place where data is acquired, the place where the line-of-sight information is corrected, the place where machining data is created, and the place of the processing machine do not have to be in the same place, and may be provided in different places. . In this case, it is possible to perform work at each location by communicating various data with the communication means.
  • FIG. 12 is a flowchart showing a spectacle lens selection method according to this embodiment.
  • the gaze information of the subject is acquired and the gaze information is corrected by using the gaze detection device 100 and the gaze information correction device 200 in the same procedure as described above (steps 211 to 213).
  • the corrected rotation angle of the eyeball and the intersection of the optical instrument and the line of sight can be obtained.
  • the processing unit PR uses the corrected rotation angle of the eyeball and the data of the intersection of the optical instrument and the line of sight to determine the moving area (use area) of the line of sight on the lens for the subject (step 214).
  • a plurality of types of lenses to be prescribed to the subject are prepared, and aberrations in the use area of the subject are acquired for the plurality of types of lenses.
  • the processing unit PR selects a spectacle lens suitable for the subject using the acquired aberration of the use area.
  • the one having the smallest aberration in the use area of the subject can be selected as the optimum for the subject, and prioritization can be performed based on the aberration in the use area of the subject.
  • the subject makes a final decision based on prioritization.
  • the spectacle lens of the present embodiment is a lens whose feature points are determined using the corrected line of sight.
  • a feature point is a point that characterizes aberration in a lens, such as a near reference point or a region having a certain value of assault. The procedure for determining the performance of the near-use area will be described below.
  • the wearer When deciding on the near-use area, the wearer can bring a book, etc. Identify. Subsequently, by using the gaze detection device 100 and the gaze information correction device 200, or the gaze detection device 101 that integrates the gaze detection device 100, the gaze detection device 101 that is integrated with the gaze detection device 100 is watched. Get the corrected line of sight when you are.
  • the lens matches the actual line of sight of the subject. That is, the reference point at the time of near gaze is arranged at the intersection of the corrected line of sight and the lens.
  • the near-point gaze reference point is an intersection of the corrected light beam and the lens at the near-range gaze, and is a reference point set on the lens.
  • the near reference point when a stable image is viewed at a reference point at the near gaze, that is, when a stable image is observed with little change in frequency and low asses, the near reference point may be set as the near gaze reference point. Moreover, if the frequency at which the near gaze point can be visually recognized is sufficient at the near gaze reference point, the upper end of the near reference circle may be set at the near gaze reference point.
  • the determined point may be set as a reference point at the near vision.
  • the near reference point determined by the conventional gaze detection apparatus is set to the near gaze reference point at D2 defined by the line of sight OC ⁇ D2 in FIG.
  • a near gaze reference point is set to R2 defined by the visual axis OC ⁇ R2 in FIG.
  • the reference point at the near gaze is NRP
  • the intersection of the line connecting the near gaze point and the rotation point (or pupil center) with the straight line and the lens is D1 (front surface), D2 (back surface)
  • the subject is made to experience a first state that is clearly visible, a second state that is blurred compared to the first state, and a third state that is considerably blurred compared to the first state.
  • the first state is experienced by wearing a single focus lens (referred to as a prescription single focus lens) that matches the prescription power of the subject.
  • the second state is experienced by wearing an astigmatic lens (for example, 0.25 Dpt or 0.5 Dpt) slightly deviated from the prescription single focus lens.
  • the third state is experienced by wearing an astigmatic lens (for example, 0.75 Dpt or 1.00 Dpt) that is considerably deviated from the prescription single focus lens.
  • a test subject is placed in a room, and a grid or pattern is pasted on the wall of the room to specify which grid or pattern to view in the first state.
  • the user wants to specify which grid / pattern he wants to see in the second state.
  • the third state specify which cell / pattern you want to see.
  • the gaze corrected by the subject when looking at the point designated by the subject, the gaze detection device 100 and the gaze information correction device 200, or the gaze detection device 101 integrated therewith is used. Acquire by using. This operation completes the matching of the subject's desire for the visual field with the coordinates on the lens and the desired performance (allowable astigmatism value) at that position. Specifically, it is only necessary to achieve a transmission astigmatism of 0.5 Dpt or less in the coordinates on the lens obtained by wearing a 0.5 Dpt astigmatic lens. In other words, if the desired performance is satisfied in the coordinates on the lens obtained as described above, a lens that provides the visual field desired by the subject can be realized.
  • the lens designed based on the corrected line of sight has an intersection of a line connecting the point designated by the subject and the rotation point (or pupil center) with a straight line and the lens at D1 (surface), D2 ( And the intersection of the line of sight and the lens corrected by the present invention are R1 (front surface) and R2 (back surface), D1 ⁇ R1 and D2 ⁇ R2 It has become.
  • LENGTH In a distance area where the power is almost constant, if the distance from the optical center of the lens is LENGTH (), When the frequency of the distance area is positive, LENGTH (D1) ⁇ LENGTH (R1) And LENGTH (D2) ⁇ LENGTH (R2) It has become. Also, when the frequency of the distance area is negative, LENGTH (D1)> LENGTH (R1) And LENGTH (D2)> LENGTH (R2) It has become.
  • a lens with a shifted astigmatism power was worn, and the subject's field of view and the transmission astigmatism distribution on the lens were matched, but by wearing a lens with a spherical power shifted from the prescription power, It is also possible to perform matching between the subject's field of view and the transmission spherical power distribution on the lens.
  • the visual performance notification method is a method of presenting information obtained by using the visual line detection device 100 and the visual line information correction device 200 and a value calculated from the information to the subject.
  • the corrected gaze of the subject is acquired using the gaze detection device 100 and the gaze information correction device 200 or the gaze detection device 101 in which the gaze information correction device 200 is integrated.
  • the intersection of the acquired line of sight and the lens is obtained, and the intersection group on the lens is acquired. Further, the intersection point between the corrected viewpoint and the lens when the near gaze point is viewed is acquired, and the progressive zone length corrected from the acquisition result and the fitting point in the lens is acquired. The acquired progressive zone length is notified or presented to the subject.
  • Examples of presentation methods include presentation on a monitor, presentation on paper, presentation as a lens specification, and distribution. Further, not only the intersection points according to the present method but also the intersection points according to the conventional method and the intersection points according to the present method may be presented as shown in FIG. 31, for example. Thereby, the effect of the lens of the present invention can be transmitted more directly. It is more effective if the intersections of this method and the aberration distribution of the lens are shown in an overlapping manner.
  • the progressive zone length for example, if the progressive zone length according to the present system is described together with the diagram as shown in FIG.
  • the computer may cause the computer to execute an input step for inputting the line-of-sight information to a predetermined input unit and the calculation step for correcting the line-of-sight information input to the input unit.
  • a detection step for detecting the line-of-sight information and a calculation step for correcting the line-of-sight information may be executed by a computer using a program.
  • the subject wears the computer based on the correction step for correcting the line-of-sight information, the corrected line-of-sight information, position information such as the position of the gazing point, the lens shape, and the rotation point, and the optical information.
  • a design step for determining at least one of the aberration distribution of the spectacle lens and the lens surface shape may be executed.
  • the computer corrects the line-of-sight information using the optical information, and the spectacle lens worn by the subject based on the corrected line-of-sight information, the position information, and the optical information.
  • a design step for determining at least one of the aberration distribution and the lens surface shape and a processing step for processing a spectacle lens by a predetermined processing device according to the determination result may be executed.
  • the computer performs a correction step for correcting the line-of-sight information using the optical information, and the aberration distribution and the lens surface shape are different based on the corrected line-of-sight information, the position information, and the optical information.
  • a selection step of selecting a spectacle lens worn by the subject from a plurality of spectacle lens groups may be executed.
  • the program can be recorded on a computer-readable recording medium such as a CD-ROM, DVD, or flash memory. By using the program recorded on the recording medium, the computer may execute the operation.
  • the program can also be provided to a computer by a data signal via the Internet.
  • FIG. 41 is a diagram showing these states.
  • the personal computer 200 is a general-purpose personal computer serving as the aforementioned line-of-sight information correction apparatus 200, and receives a program provided via the CD-ROM 304.
  • the personal computer 200 has a connection function with the communication line 301.
  • a computer 302 is a server computer that provides the program, and stores the program in a recording medium such as a hard disk 303.
  • the communication line 301 is a communication line such as the Internet or a dedicated communication line.
  • the computer 302 reads the program using the hard disk 303 and transmits the program to the personal computer 300 via the communication line 301. That is, the program is transmitted as a data signal on a carrier wave via the communication line 301.
  • the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a data signal.
  • Example 1 In Example 1, the case of a single-focal spherical lens is considered as the spectacle lens.
  • FIG. 13 shows the contents of lens shape basic data stored in the storage unit MR and the like.
  • FIG. 14 shows the stored contents when the transmitted light information is stored.
  • the transmitted light information is obtained by using the lens shape basic data of FIG. 13, reproducing the lens and the rotation point, and generating a light beam passing through the rotation point (FIG. 15). Since the spectacle lens having the lens shape basic data shown in FIG. 13 is a rotationally symmetric lens, it is sufficient to perform it along one axis.
  • FIG. 16 shows a light beam that passes through the rotation point, is refracted by the lens, and passes through the gazing point. The value obtained by this is as shown in FIG. Although the values by the line-of-sight detection device 100 are also shown, the difference is clear and it can be understood that the effect of the present invention is great.
  • FIG. 18 shows the storage contents when the lens shape basic data is stored. Further, FIG. 19 shows the stored contents when the transmitted light information is stored.
  • the transmitted light information is obtained by using the lens shape basic data shown in FIG. 18 to reproduce the lens and the rotation point and generate a light beam passing through the rotation point (FIGS. 20 and 21).
  • FIG. 22 shows a light beam that passes through the rotation point, is refracted by the lens, and passes through the gazing point. The value obtained by this is as shown in FIG. Although the values by the line-of-sight detection device 100 are also shown, the difference is clear and it can be understood that the effect of the present invention is great.
  • Example 3 Consider the case of a progressive power lens. 24 and 25 show the storage contents when the lens shape basic data is stored.
  • FIG. 25 shows the sag of the progressive surface shape as a difference from the mother sphere.
  • FIG. 17 shows the stored contents when the transmitted light information is stored.
  • the transmitted light information is obtained by using the lens shape basic data shown in FIGS. 24 and 25, reproducing the lens and the rotation point, and generating a light beam passing through the rotation point (FIG. 26).
  • FIG. 28 shows a light beam that passes through the rotation point, is refracted by the lens, and passes through the gazing point.
  • the values thus obtained are as shown in FIG.
  • the values by the line-of-sight detection device 100 are also shown, the difference is clear and it can be understood that the effect of the present invention is great.
  • Example 4 In the fourth embodiment, an example in which the use area of the line of sight on the lens for the subject is obtained using the corrected rotation angle of the eyeball and the data of the intersection of the optical instrument and the line of sight will be described.
  • the three types of lenses have different distances until the astigmatism exceeds 1.0 diopter when the astigmatism in the horizontal direction of the fitting point is measured.
  • the lens A is 3 mm
  • the lens B is 6 mm
  • the lens C is 15 mm.
  • the usage area calculated from the corrected gaze information of the subject was 5 mm in the horizontal direction of the fitting point, for example, as shown in FIG.
  • the lens B or the lens C is selected.
  • the subject does not feel uncomfortable when wearing the lens C, but the lens C can be said to be overcorrected for a subject of 5 mm. Therefore, the priority order of the lens B is higher than that of the lens C, and the lens A becomes incompatible.
  • the use area calculated from the gaze information corrected by the subject is, for example, 7 mm in the fitting point horizontal direction as shown in FIG.
  • the lens A and the lens B are incompatible, only the lens C is compatible, and an overcorrected lens must be selected so that there is no room for selection.
  • the result changes depending on whether or not the line-of-sight information is corrected.
  • FIG. 32 is a diagram for explaining the outline of the spectacle wearing state measurement system 1 according to the second embodiment of the present invention.
  • the spectacle wearing state measurement system 1 includes a spectacle photographing device 10 and a computer 20.
  • the eyeglass photographing device 10 is worn on the subject's head and continuously photographs the subject wearing the eyeglasses.
  • the computer 20 measures the change in the wearing state of the glasses in the subject by measuring the change in the position of the glasses based on the images continuously photographed by the glasses photographing device 10.
  • FIG. 33 is a diagram for explaining the configuration of the eyeglass photographing apparatus 10.
  • FIG. 33A is a diagram illustrating a state in which the spectacle photographing device 10 is mounted on the head of the subject 2
  • FIG. 33B is a diagram illustrating a configuration of the spectacle photographing device 10 viewed from the subject 2 side. is there.
  • the eyeglass photographing device 10 includes a camera 11, an infrared light source 12, a dichroic mirror 13, and a headband 14.
  • the eyeglass photographing device 10 is fixed to the head of the subject 2 by the headband 14. Thereby, the relative position of the eyeglass photographing device 10 with respect to the face of the subject 2 is fixed.
  • a camera 11, an infrared light source 12, and a dichroic mirror 13 are attached to the headband 14.
  • the dichroic mirror 13 is disposed in front of the glasses 3, and the camera 11 and the infrared light source 12 are disposed obliquely above the glasses 3.
  • the camera 11 is provided with a left camera 11L that captures the left eye side periphery of the glasses 3 and a right camera 11R that captures the right eye side periphery of the glasses 3.
  • a left infrared light source 12 ⁇ / b> L that illuminates the left eye side periphery of the glasses 3 and a right infrared light source 12 ⁇ / b> R that illuminates the right eye side periphery of the glasses 3 are provided.
  • a left dichroic mirror 13 ⁇ / b> L disposed in front of the left eye side of the glasses 3 and a right dichroic mirror 13 ⁇ / b> R disposed in front of the right eye side of the glasses 3 are provided.
  • the dichroic mirror 13 reflects infrared light and transmits visible light. Therefore, the subject 2 can freely see the front field of view through the glasses 3 and the dichroic mirror 13 even when the headband 14 is worn.
  • the infrared light irradiated from the infrared light source 12 is reflected by the dichroic mirror 13 to illuminate the glasses 3.
  • the camera 11 continuously images the glasses 3 illuminated with infrared light through the dichroic mirror 13.
  • two marks 31L, 32L, 31R, and 32R are attached in advance to the left and right spectacle lenses 3L and 3R, respectively, on the spectacles 3 worn by the subject. Therefore, these marks 31L, 32L, 31R, and 32R are imaged by the camera 11 together with the left and right eyeglass lenses 3L and 3R. These marks 31L, 32L, 31R, and 32R are sized so as not to obstruct the subject's field of view.
  • the glasses images continuously captured by the camera 11 are input to the computer 20.
  • the computer 20 displays the captured images of the left eye side and the right eye side of the glasses on the monitor 21.
  • the computer 20 calculates the positions of the marks 31L, 32L, 31R, and 32R with respect to the reference coordinates O of the images of the glasses that are continuously captured, and records them on a recording device (not shown) in the computer 20. To go.
  • the computer 20 obtains the change amount of the position of the glasses based on the change amount of the position of the marks 31L, 32L, 31R, 32R.
  • a parallel movement amount of the glasses and a rotation amount about the front-rear direction are calculated.
  • An example of this calculation method will be described with reference to FIG. 36A shows a captured image of the right eye side of the glasses at time t0, and FIG. 36B shows a captured image of the right eye side of the glasses at time t. Note that these captured images actually show the subject's eyes and eyeglass frames, but are omitted in FIG.
  • the wearing state of the glasses at time t0 is the reference wearing state.
  • the wearing state of the glasses changes from the reference wearing state, and the position of the glasses changes.
  • the reference coordinate O is set at the lower left corner of the image as shown in FIGS. 36 (a) and 36 (b). It is assumed that the x direction of the image is the left-right direction on the paper surface of FIG. 36, and the y direction of the image is the vertical direction of the paper surface of FIG.
  • the coordinates of the mark 31R and the mark 32R at time t0 are (x1 (t0), y1 (t0)) and (x2 (t0), y2 (t0)), respectively, and the coordinates at time t are (x1 (t0 ), y1 (t)), (x2 (t), y2 (t)).
  • the position of the glasses at the time t with respect to the reference wearing state at the time t0 is an angle ⁇ (centering on the middle point P (t0) between the mark 31R and the mark 32R in the reference wearing state with the longitudinal direction of the glasses as an axis.
  • t Rotated and translated by dx (t) in the x direction and dy (t) in the y direction. That is, from time t0 to time t, the rotation amount about the front-back direction of the glasses is the angle ⁇ (t), and the parallel movement amounts of the glasses are dx (t) and dy (t).
  • ⁇ (t) arctan ( ⁇ (t)) -arctan ( ⁇ (t0)) (3)
  • dx (t) and dy (t) are calculated by the following equations (4) and (5).
  • dx (t) ⁇ (x1 (t) + x2 (t))-(x1 (t0) + x2 (t0)) ⁇ / 2 ...
  • dy (t) ⁇ (y1 (t) + y2 (t))-(y1 (t0) + y2 (t0)) ⁇ / 2 ... (5)
  • the computer 20 continuously calculates the amount of change in the position of the glasses (parallel movement amounts dx (t), dy (t) and the rotation amount ⁇ (t) about the front-rear direction), Changes in the wearing state of the glasses when the subject is moving can be continuously measured.
  • the measurement result by the spectacle wearing state measurement system 1 can be used, for example, when examining whether or not the frame of spectacles worn by the subject fits the subject.
  • the subject is allowed to move freely assuming wearing glasses.
  • the subject may be running during photographing by the spectacle photographing device 10.
  • the spectacle wearing state measurement system 1 As a result of the measurement by the spectacle wearing state measurement system 1, when the amount of change in the spectacle position is large, the spectacles are displaced due to movement of the subject, and there is a high possibility that the spectacle frame is not aligned with the subject. Therefore, when the amount of change in the spectacle position is equal to or greater than a predetermined threshold, it may be possible to adjust the nose pad or change the frame of the spectacles.
  • the measurement result by the spectacle wearing state measurement system 1 can be used when selecting a frame to be purchased from a plurality of types of spectacle frames. In this case, it is conceivable to perform measurement by the spectacle wearing state measurement system 1 for each of a plurality of types of spectacle frames, and select a frame with the smallest amount of change in spectacle position as a frame to be purchased.
  • the spectacle wearing state measurement system 1 includes a spectacle imaging device 10 that continuously images spectacles 3 worn by a subject 2 and marks 31L and 32L attached to the lenses of the spectacles 3 from images captured by the spectacle imaging device 10. , 31R, 32R, and the computer 20 that extracts the positions of the extracted marks 31L, 32L, 31R, 32R are calculated, and the position change amount of the glasses 3 is measured based on the change amount. And a computer 20.
  • the change of the wearing state of the glasses 3 in the state where the subject 2 wearing the glasses 3 is moving can be measured. That is, it is possible to determine whether or not the spectacle lens or the spectacle frame is suitable for the subject based on the amount of change. Further, whether or not the spectacle lens or the spectacle frame is suitable for the subject can be determined based on the parallel movement amount or the rotation amount (measurement amount) calculated (measured) as the change amount.
  • FIG. 42 shows a flowchart of the program.
  • the computer 20 inputs images obtained by continuously capturing the glasses 3 worn by the subject 2 by the camera 11 of the glasses photographing apparatus 10.
  • the computer 20 continuously extracts the marks 31L, 32L, 31R, and 32R attached to the lenses of the glasses 3 from the input image.
  • the computer 20 calculates the amount of change in the position of the extracted marks 31L, 32L, 31R, and 32R, and measures the amount of change in the position of the glasses 3 based on the amount of change.
  • the program executed by the computer 20 can be supplied to the computer 20 as a computer readable computer program product in various forms such as a recording medium and a data signal, as in FIG. 41 of the first embodiment.
  • FIG. 37 shows an example of an image captured by the eyeglass photographing device 10 in this case.
  • FIG. 37A shows a captured image on the right eye side at time t0
  • FIG. 37B shows a captured image on the right eye side at time t.
  • the vertex of the subject's nose 2n is set as a feature point will be described.
  • the computer 20 extracts the marks 31R and 32R from the captured images at the time t0 and the time t, extracts the set feature points, sets the position of the feature points as the reference coordinates O, and sets the marks 31R and 32R. Calculate the position coordinates. Then, similarly to the above-described embodiment, the computer 20 calculates the rotation amount ⁇ (t) of the eyeglass position and the translation amounts dx (t), dy (t from the position coordinates of the marks 31R and 32R at the time t and the time t0. ) Is calculated.
  • omitted the case where it calculated using the captured image of the right eye side of spectacles was demonstrated here, since it is the same also when calculating using the captured image of the left eye side of spectacles.
  • the amount of change in the relative position of the glasses with respect to the face of the subject can be obtained, when the headband 14 moves and the relative position of the eyeglass photographing device 10 with respect to the face of the subject has shifted.
  • FIG. 38 is a diagram illustrating a configuration of the eyeglass photographing device 10X according to the second modification.
  • the eyeglass photographing device 10X includes a left visual line detection unit 15L that detects the line of sight of the left eye and a right visual line detection unit 15R that detects the line of sight of the right eye in addition to the configuration of the eyeglass photographing device 10 in the above-described embodiment.
  • a known visual line detection device can be used as the left visual line detection unit 15L and the right visual line detection unit 15R.
  • the eyeglass photographing apparatus 10X includes the line-of-sight detection unit 15 so that the amount of change in the position of the glasses can be measured and the line-of-sight detection can be performed.
  • FIG. 39 is a diagram for explaining points (transmission points) 33L and 33R where the subject's line of sight passes through the spectacle lenses 3L and 3R, and shows a state in which the spectacle lenses 3L and 3R are viewed from above.
  • FIGS. 39A and 39B show the case where the directions of the line of sight are the same, but the positions of the eyeglass lenses 3L and 3R are different. As shown in FIGS. 39A and 39B, even if the direction of the line of sight is the same, if the positions of the spectacle lenses 3L and 3R are different, the positions of the transmission points 33L and 33R are different.
  • the positions of the transmission points 33L and 33R are different if the direction of the line of sight is different.
  • the positions of the transmission points 33L and 33R are determined by the positions of the spectacle lenses 3L and 3R and the direction of the line of sight, the amount of change in the position of the spectacle lenses 3L and 3R (that is, the amount of change in the position of the spectacles) and the line of sight From the direction, the positions of the transmission points 33L and 33R can be obtained.
  • the left visual line detection unit 15L and the right visual line detection unit 15R change the direction of the visual line while the eyeglass image is captured by the camera 11.
  • the detection is continuously performed and the detection result is output to the computer 20.
  • the computer 20 continuously calculates the positions of the transmission points 33L and 33R based on the direction of the line of sight detected by the line-of-sight detection unit 15 and the amount of change in the position of the glasses calculated based on the image captured by the camera 11. To do.
  • the transmission points 33L and 33R the positions of both the front and back surfaces of the spectacle lenses 3L and 3R may be obtained, or one of the positions may be obtained.
  • the measurement result of the transmission point by the spectacle wearing state measurement system 1 can be used, for example, when designing or selecting a progressive spectacle lens.
  • a distance area for viewing a distance, a near area for viewing a distance, and a progressive area connecting these areas are set.
  • a subject wearing a progressive spectacle lens takes a picture with the spectacle photographing device 10X and measures the position of the transmission point in a state of looking far away.
  • the power at the transmission point deviates from the predetermined power in the distance area, it can be determined that the progressive spectacle lens worn by the subject is not suitable for the subject.
  • the subject wearing the progressive spectacle lens takes a picture with the spectacle photographing device 10X and the position of the transmission point is measured in a state of looking near.
  • the power at the position of the transmission point deviates from the predetermined power in the near field, it can be determined that the progressive spectacle lens worn by the subject is not suitable for the subject.
  • the gaze detection calibration by the left visual line detection unit 15L and the right visual line detection unit 15R may be performed for each of a plurality of different wearing states of the same glasses. For example, after performing calibration in the reference spectacle wearing state, the calibration is performed in the wearing state in which the position of the spectacles is shifted from the reference spectacle wearing state. The result of each calibration is stored in a storage device in the computer 20 in association with the position of the spectacle lens mark in the corresponding wearing state. In the calibration, the subject is caused to gaze at several points at specific positions, and the line-of-sight direction corresponding to each point is detected.
  • the computer 20 selects the spectacle lens from the calibration results in a plurality of wearing states stored in the storage device based on the position of the spectacle lens mark obtained from the image captured by the spectacle photographing device 10. Select the calibration result with the closest mark position. As a result, it is possible to select the result of calibration in the spectacle wearing state closest to the spectacle wearing state at the time of measurement. Then, the computer 20 corrects the direction of the line of sight detected by the left visual line detection unit 15L and the right visual line detection unit 15R based on the selected calibration result.
  • the gaze direction detection accuracy can be improved by calibrating the gaze detection in each of a plurality of different wearing states of the same spectacles, so the gaze transmission point on the spectacle lens performed using the gaze detection result
  • the calculation accuracy of can also be improved.
  • a spectacle lens is provided with one mark having a shape for which the amount of rotation is obtained (that is, a shape that is not rotationally symmetric), and the amount of parallel movement of the spectacle position is calculated from the amount of translation and the amount of rotation of the mark at one location.
  • the amount of rotation may be calculated.
  • one mark is attached to each of the left and right eyeglass lenses, and the movement of the eyeglass position is translated from the amount of movement of these marks and the distance between the left and right eyeglass lenses.
  • the amount and the rotation amount may be calculated. That is, when a rotationally symmetric mark is attached, at least two or more marks may be turned down by combining the left and right eyeglass lenses (that is, in a pair of eyeglass lenses).
  • FIG. 40 is a diagram illustrating an example of a captured image of the glasses in this case.
  • FIG. 40A shows a captured image on the right eye side of the glasses at time t0
  • FIG. 40B shows a captured image on the right eye side of the glasses at time t.
  • the spectacles are tilted with the x axis (left and right direction) as the rotation axis between time t0 and time t
  • the height in the y direction of the triangle connecting the marks 34R to 36R at time t is as shown in FIG. It is shorter than time t0.
  • the computer 20 can calculate the rotation amount (rotation amount in the tilt direction) about the x-axis (left-right direction) of the glasses based on the deformation amount of the triangle connecting the marks 34R to 36R. Similarly, the computer 20 can also calculate the amount of rotation about the y-axis (vertical direction) of the glasses. Note that the parallel movement amount of the glasses and the rotation amount about the front-rear direction can be calculated from the change amounts of the positions of the marks 34R to 36R, as in the above-described embodiment. In addition, here, the case where the calculation is performed using the captured image on the right eye side of the glasses has been described, but the same applies to the case where the calculation is performed using the captured image on the left eye side of the glasses.
  • the computer 20 may calculate both the rotation amount with the left-right direction as an axis and the rotation amount with the up-down direction as an axis, or may calculate either one.
  • the number of marks is not limited to three, and at least three marks may be provided by combining the left and right eyeglass lenses (that is, in a pair of eyeglass lenses).
  • Mark may be provided at one location. However, it is preferable that the size of the mark is small because it does not hinder the field of view of the subject.
  • the change amount of the spectacle position may be calculated based on the outline of the spectacle lens or the frame instead of the mark attached to the spectacle lens or the frame.
  • a spectacle image in a spectacle wearing state as a reference is taken in advance.
  • the computer 20 extracts the contour of the spectacle lens or frame from the photographed image, and stores the extracted spectacle lens or frame contour data in a storage device in the computer 20.
  • the computer 20 calculates a change amount (parallel movement amount or rotation amount) of the position of the lens lens or frame contour based on the contour data stored in the storage device in advance. Based on this change amount, the change amount of the position of the glasses is calculated in the same manner as in the above-described embodiment.
  • SYMBOLS 1 Glasses wearing state measuring system, 2 ... Test subject, 3 ... Glasses, 10, 10X ... Glasses imaging device, 11 ... Camera, 12 ... Infrared light source, 13 ... Dichroic mirror, 15 ... Eye-gaze detection part, 20 ... Computer, CONT ... Control device, PR ... Processing unit, CM ... Communication unit, MR ... Storage unit, 100, 101 ... Gaze detection device, L, 16 ... Glasses lens, 200 ... Gaze information correction device, 201 ... Body unit, 202 ... Input unit , 203 ... output unit, 301 ... communication line, 302 ... computer, 303 ... hard disk, 304 ... CD-ROM, 400 ... gaze information correction system

Abstract

 視線情報補正装置は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報が入力される入力部と、前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算部とを備える。

Description

視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法
 本発明は、視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法に関する。
 従来、被験者がどの位置を観察しているかを検出する手段を有した、いわゆる視線検出装置が開発されている。視線検出装置は、眼球撮影カメラを有し、そのカメラによって得られた瞳孔画像から、注視点や視線方向などの視線情報を求める。また、視線情報の精度をより高めるために、瞳孔画像だけでなく、または、瞳孔画像の代わりに、眼球の前方から赤外線を当て、角膜による赤外線の反射画像を眼球撮影カメラを用いて撮影し、瞳孔画像および赤外線の反射画像を用いて注視点や視線方向を計算する手法が知られている。
 眼球撮影カメラを撮影者本人に装着するタイプのものとして、例えば特許文献1が知られている。特許文献1によれば、頭部に装着された部分から眼球前方へ伸びた固定部に眼球撮影カメラが装着され、瞳孔画像等を撮影する構成が記載されている。
 この場合、被験者は被験者の前方に置かれた2~9個程度のマークを注視し、その際の眼球画像を撮影するという、いわゆるキャリブレーション段階を経る。一度キャリブレーションが済んだ後には、任意の方向を向いた際に、その際の眼球画像とキャリブレーションによって得られた眼球画像からどこを見ているかを算出することができ、視線方向や注視点、眼球回旋角を算出することができる。
 また、眼球撮影カメラを撮影者本人に装着せず、机等に設置するタイプのものとしては、特許文献2が知られている。特許文献2の記載によれば、机上に眼球撮影カメラが設置され、その眼球撮影カメラによって被験者の眼球を撮影する構成となっている。キャリブレーションの方法、および、キャリブレーション後における任意方向の視線方向の算出に関しては、特許文献1に記載の構成と同様である。
 特許文献2の記載においては、被験者自身に装置を設置する必要がないためわずらわしさがないが、眼球だけを回旋させて側方を見た場合と頭部回転を伴って側方を見た場合との区別がつかないため、正確な回旋角・視線方向ベクトルを算出することができない。そのため、机上設置タイプの場合は、頭部運動を検出するための頭部検出手段がさらに必要になることが多い。
 しかし、これら従来の視線検出装置は、被験者が眼鏡等の視線方向の変わる光学手段を装着していることは念頭に置いておらず、回旋中心と注視点とを結ぶ視線が結ばれていることを前提に視線方向や眼球回旋角を計算している。そのため、被験者が眼鏡等の視線方向の変わる光学手段を装着している場合には、検出された視線方向や回旋角には誤差が含まれてしまう。
 キャリブレーションを工夫することによって誤差を減らそうという試みもある。例えば、キャリブレーションにおける点数を増やす方法やキャリブレーションポイントの工夫などによる方法にて測定したとしても、視線方向が変わっている原因を取り除けるわけではないため、無視できない誤差が残ってしまう。その誤差は、特に、非対称形状をした累進屈折力レンズの場合、とても大きくなる。また、キャリブレーションを工夫する方法は、レンズ面形状の非球面度合い・非対称度合いに応じてキャリブレーション用サンプル点数やサンプル点の位置を変える必要がある。例えば、急激な面形状の変化のある領域に対しては、サンプル点密度を上げるなどする必要があり、画一的な方法で対応することが難しくなる。
 非特許文献1には、従来の視線検出装置を用いて、累進屈折力レンズを装用した被験者に対し、視線検出を行なった実験が載っている。しかしこの文献では、従来の視線検出装置による結果に対し、誤差補正をせずに評価を行なっている。累進屈折力レンズを掛けた場合の誤差は、被験者が装着したレンズの処方度数(S度、C度、乱視軸)や加入度、累進帯長によって異なるため、累進屈折力レンズ毎に補正を行なわなければならない。すなわち、3人の被験者にて実験を行なっているのだが、そのそれぞれに対して、個別の補正をかけた後に評価を行なう必要がある。
 このように、従来の視線検出装置を用い、眼前に眼鏡等視線方向の変わる光学手段を装着した場合、特に累進屈折力レンズのような非対称性の高い光学手段を装着した場合には、補正を行なわなければないのだが、補正されていないのが現状である。
 また、従来、眼鏡を装用した被験者の顔の正面及び側面を撮影した画像に基づいて、被験者における眼鏡の装用パラメータを測定する装置が知られている(特許文献3参照)。
日本国特公平6-53107号公報 日本国特開平10-66678号公報 日本国特開2010-266892号公報
あたらしい眼科 Vol.24 No.9 2007
 しかしながら、従来の視線検出装置は、眼鏡等の光を屈折させて眼球に入射させる光学器具を被験者が装着していることは念頭に置いておらず、回旋中心と注視点とを結ぶ視線が結ばれていることを前提に視線方向や眼球回旋角を計算している。したがって、被験者が上記の光学器具を装着している場合、被験者の実際の視線は光学器具の位置に応じて屈折するため、検出結果と実際の視線情報との間には誤差が含まれてしまう。
 この誤差はレンズ設計をするにあたり無視できない大きさであり、実際に従来の視線検出装置の出力結果を用いて設計を行い、被験者に装用してもらったところ、設計時に用いた視線と実際の被験者の視線とが異なるため、被験者が実際に感じる収差は設計とは異なってしまい被験者にとって不満の残る結果となってしまった。
 また、上記従来技術では、眼鏡を装用した被験者が動いている状態で、眼鏡の装用状態がどのように変化するかは考慮されていなかった。
 本発明の第1の態様によると、視線情報補正装置は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報が入力される入力部と、前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算部とを備える。
 本発明の第2の態様によると、第1の態様の視線情報補正装置において、前記光学情報を記憶する記憶部を更に備えるのが好ましい。
 本発明の第3の態様によると、第1又は第2の態様の視線情報補正装置において、前記光学情報を受信する受信部を更に備えるのが好ましい。
 本発明の第4の態様によると、第1から第3のうちいずれか一の態様の視線情報補正装置において、前記演算部で補正された前記視線情報を出力する出力部を更に備えるのが好ましい。
 本発明の第5の態様によると、第1から第4のうちいずれか一の態様の視線情報補正装置において、前記光学器具は、眼鏡レンズであるのが好ましい。
 本発明の第6の態様によると、第1から第5のうちいずれか一の態様の視線情報補正装置において、前記光学器具に対して予め行った光線追跡結果を保存する記憶部と前記記憶部に保存された前記光線追跡結果の中から前記視線情報に近い光線追跡結果を検索する検索部を更に備えるのが好ましい。
 本発明の第7の態様によると、第6の態様の視線情報補正装置において、前記光線追跡検索結果から前記視線情報に近い光線を補間する補間部を更に備えるのが好ましい。
 本発明の第8の態様によると、第1から第7のうちいずれか一の態様の視線情報補正装置において、前記演算部において補正する際に、被験者の注視点座標情報を更に用いるのが好ましい。
 本発明の第9の態様によると、第8の態様の視線情報補正装置において、前記演算部において補正する際に、注視点までの距離情報を更に用いるのが好ましい。
 本発明の第10の態様によると、第1から第9のうちいずれか一の態様の視線情報補正装置において、前記演算部において補正する際に、視野撮影部の歪み情報を更に用いるのが好ましい。
 本発明の第11の態様によると、第1から第10のうちいずれか一の態様の視線情報補正装置において、前記被験者と前記光学器具と前記被験者の視線情報を提供する視線検出装置の少なくとも二つの相対位置情報を検出する相対位置検出部を更に備え、前記演算部において補正する際に、前記相対位置情報を更に用いるのが好ましい。
 本発明の第12の態様によると、視線情報補正方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を入力する入力ステップと、前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算ステップとを含む。
 本発明の第13の態様によると、第12の態様の視線情報補正方法において、前記演算ステップは、記憶部に記憶された前記光学情報を用いることを含むのが好ましい。
 本発明の第14の態様によると、第12又は第13の態様の視線情報補正方法において、前記演算ステップは、受信部で受信された前記光学情報を用いることを含むのが好ましい。
 本発明の第15の態様によると、第12から第14のうちいずれか一の態様の視線情報補正方法において、前記演算ステップは、補正された前記視線情報を出力することを含むのが好ましい。
 本発明の第16の態様によると、第12から第15のうちいずれか一の態様の視線情報補正方法において、前記光学器具として、眼鏡レンズが用いられるのが好ましい。
 本発明の第17の態様によると、第12から第16のうちいずれか一の態様の視線情報補正方法において、前記光学器具に対して予め行った光線追跡結果を保存する記憶ステップと、前記記憶部に保存された前記光線追跡結果の中から前記視線情報に近い光線追跡結果を検索する検索ステップとを更に含むのが好ましい。
 本発明の第18の態様によると、第17の態様の視線情報補正方法において、前記光線追跡検索結果から前記視線情報に近い光線を補間する補間ステップを更に含むのが好ましい。
 本発明の第19の態様によると、第1から第18のうちいずれか一の態様の視線情報補正方法において、前記演算ステップにおいて補正する際に、被験者の注視点座標情報を更に用いるのが好ましい。
 本発明の第20の態様によると、第19の態様の視線情報補正方法において、前記演算ステップにおいて補正する際に、注視点までの距離情報を更に用いるのが好ましい。
 本発明の第21の態様によると、第1から第20のうちいずれか一の態様の視線情報補正方法において、前記演算ステップにおいて補正する際に、視野撮影部の歪み情報を更に用いるのが好ましい。
 本発明の第22の態様によると、第1から第21のうちいずれか一の態様の視線情報補正方法において、前記被験者と前記光学器具と被験者の視線情報を提供する視線検出装置の少なくとも二つの相対位置情報を検出する相対位置検出ステップを更に含み、前記演算ステップにおいて補正する際に、前記相対位置情報を更に用いるのが好ましい。
 本発明の第23の態様によると、視線情報検出装置は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を検出する検出部と、前記光学器具での前記光の屈折に関する光学情報を用いて、前記検出部によって検出された前記視線情報を補正する演算部とを備える。
 本発明の第24の態様によると、第23の態様の視線情報検出装置において、前記光学情報を記憶する記憶部を更に備えるのが好ましい。
 本発明の第25の態様によると、第23又は第24の態様の視線情報検出装置において、前記光学情報を受信する受信部を更に備えるのが好ましい。
 本発明の第26の態様によると、第23から第25のうちいずれか一の態様の視線情報検出装置において、前記演算部で補正された前記視線情報を出力する出力部を更に備えるのが好ましい。
 本発明の第27の態様によると、第23から第26のうちいずれか一の態様の視線情報検出装置において、前記光学器具は、眼鏡レンズであるのが好ましい。
 本発明の第28の態様によると、第23から第27のうちいずれか一の態様の視線情報検出装置において、前記検出部が、前記被験者の眼球部を測定する眼球撮影部と、眼球撮影部から視線情報を算出する視線情報算出部を備えるのが好ましい。
 本発明の第29の態様によると、第23から第28のうちいずれか一の態様の視線情報検出装置において、前記被験者の視野を撮影する視野撮影部と前記視野撮影部によって撮影される撮影画像に含まれるゆがみを補正するゆがみ補正部をさらに備えるのが好ましい。
 本発明の第30の態様によると、第23から第29のうちいずれか一の態様の視線情報検出装置において、前記被験者の装用する眼鏡レンズの水平方向の幅をD(mm)とし、前記装用者の角膜頂点間距離をD1(mm)、前記装用者の角膜頂点から回旋点までの距離をD2(mm)としたときに、前記視野撮影部の全画角がatan(D/(2×(D1+D2)))×2以上であるのが好ましい。
 本発明の第31の態様によると、第23から第30のうちいずれか一の態様の視線情報検出装置において、前記光学器具に対して予め行った光線追跡結果を保存する記憶部と前記記憶部に保存された前記光線追跡結果の中から前記視線情報に近い光線追跡結果を検索する検索部を更に備えるのが好ましい。
 本発明の第32の態様によると、第31の態様の視線情報検出装置において、前記光線追跡検索結果から前記視線情報に近い光線を補間する補間部を更に備えるのが好ましい。
 本発明の第33の態様によると、第23から第32のうちいずれか一の態様の視線情報検出装置において、前記演算部において補正する際に、被験者の注視点座標情報を更に用いるのが好ましい。
 本発明の第34の態様によると、第33の態様の視線情報検出装置において、前記演算部において補正する際に、注視点までの距離情報を更に用いるのが好ましい。
 本発明の第35の態様によると、第23から第34のうちいずれか一の態様の視線情報検出装置において、前記演算部において補正する際に、視野撮影部の歪み情報を更に用いるのが好ましい。
 本発明の第36の態様によると、第23から第35のうちいずれか一の態様の視線情報検出装置において、前記被験者と前記光学器具と前記被験者の視線情報を提供する視線検出装置の少なくとも二つの相対位置情報を検出する相対位置検出部を更に備え、前記演算部において補正する際に、前記相対位置情報を更に用いるのが好ましい。
 本発明の第37の態様によると、視線情報検出方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて視線情報を検出する検出ステップと、前記光学器具での前記光の屈折に関する光学情報を用いて、検出された前記視線情報を補正する演算ステップとを含む。
 本発明の第38の態様によると、第37の態様の視線情報検出方法において、前記演算ステップは、記憶部に記憶された前記光学情報を用いることを含むのが好ましい。
 本発明の第39の態様によると、第37又は第38の態様の視線情報検出方法において、前記演算ステップは、受信部で受信された前記光学情報を用いることを含むのが好ましい。
 本発明の第40の態様によると、第37から第39のうちいずれか一の態様の視線情報検出方法において、前記演算ステップは、補正された前記視線情報を出力することを含むのが好ましい。
 本発明の第41の態様によると、第37から第40のうちいずれか一の態様の視線情報検出方法において、前記光学器具として、眼鏡レンズが用いられるのが好ましい。
 本発明の第42の態様によると、第37から第41のうちいずれか一の態様の視線情報検出方法において、前記検出ステップが、前記被験者の眼球部を測定する眼球撮影ステップと、眼球撮影部から視線情報を算出する視線情報算出ステップと、を含むのが好ましい。
 本発明の第43の態様によると、第37から第42のうちいずれか一の態様の視線情報検出方法において、前記被験者の視野を撮影する視野撮影ステップと、前記視野撮影部によって撮影される撮影画像に含まれるゆがみを補正するゆがみ補正ステップと、を更に含むのが好ましい。
 本発明の第44の態様によると、第37から第43のうちいずれか一の態様の視線情報検出方法において、前記被験者の装用する眼鏡レンズの水平方向の幅をD(mm)とし、前記装用者の角膜頂点間距離をD1(mm)、前記装用者の角膜頂点から回旋点までの距離をD2(mm)としたときに、前記視野撮影ステップにおいて、全画角がatan(D/(2×(D1+D2)))×2以上であるのが好ましい。
 本発明の第45の態様によると、第37から第44のうちいずれか一の態様の視線情報検出方法において、前記光学器具に対して予め行った光線追跡結果を保存する記憶ステップと、前記記憶部に保存された前記光線追跡結果の中から前記視線情報に近い光線追跡結果を検索する検索ステップとを更に含むのが好ましい。
 本発明の第46の態様によると、第45の態様の視線情報検出方法において、前記光線追跡検索結果から前記視線情報に近い光線を補間する補間ステップを更に含むのが好ましい。
 本発明の第47の態様によると、第37から第46のうちいずれか一の態様の視線情報検出方法において、前記演算ステップにおいて補正する際に、被験者の注視点座標情報を更に用いるのが好ましい。
 本発明の第48の態様によると、第47の態様の視線情報検出方法において、前記演算ステップにおいて補正する際に、注視点までの距離情報を更に用いるのが好ましい。
 本発明の第49の態様によると、第37から第48のうちいずれか一の態様の視線情報検出方法において、前記演算ステップにおいて補正する際に、視野撮影部の歪み情報を更に用いるのが好ましい。
 本発明の第50の態様によると、第37から第49のうちいずれか一の態様の視線情報検出方法において、前記被験者と前記光学器具と被験者の視線情報を提供する視線検出装置の少なくとも二つの相対位置情報を検出する相対位置検出ステップを更に含み、前記演算ステップにおいて補正する際に、前記相対位置情報を更に用いるのが好ましい。
 本発明の第51の態様によると、眼鏡レンズの設計方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップとを含む。
 本発明の第52の態様によると、第51の態様の眼鏡レンズの設計方法において、前記設計ステップは、補正された前記視線情報と、前記光学器具における位置情報とを用いて、前記被験者の視線と前記光学器具との交点群を求めることと、求めた前記交点群に基づいて、前記眼鏡レンズの前記収差分布及び前記レンズ面形状のうち少なくとも一方を決定することと、を含むのが好ましい。
 本発明の第53の態様によると、第52の態様の眼鏡レンズの設計方法において、前記設計ステップは、求めた前記交点群に基づいて、前記眼鏡レンズ上に所定の視線領域を求めることと、前記交点群と前記視線領域とを用いて、前記収差分布及び前記レンズ面形状のうち少なくとも一方を決定することと、を含むのが好ましい。
 本発明の第54の態様によると、眼鏡レンズの製造方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップと、決定結果に応じて前記眼鏡レンズを加工する加工ステップと、を含む。
 本発明の第55の態様によると、第54の態様の眼鏡レンズの製造方法において、前記設計ステップは、補正された前記視線情報と、前記光学器具における位置情報とを用いて、前記被験者の視線と前記光学器具との交点群を求めることと、求めた前記交点群に基づいて、前記眼鏡レンズの前記収差分布及び前記レンズ面形状のうち少なくとも一方を決定することと、を含むのが好ましい。
 本発明の第56の態様によると、第55の態様の眼鏡レンズの製造方法において、前記設計ステップは、求めた前記交点群に基づいて、前記眼鏡レンズ上に所定の視線領域を求めることと、前記交点群と前記視線領域とを用いて、前記収差分布や面形状を決定することと、を含むのが好ましい。
 本発明の第57の態様によると、眼鏡レンズ選択装置は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて前記被験者の視線情報を検出する検出部と、前記光学器具での前記光の屈折に関する光学情報を用いて、前記検出部で検出された前記視線情報を補正する演算部と、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択部とを備える。
 本発明の第58の態様によると、眼鏡レンズ選択方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択ステップとを含む。
 本発明の第59の態様によると、視線追跡結果評価装置は、第1から第11のうちいずれか一の態様の視線情報補正装置、又は、第23から第36のうちいずれか一の態様の視線情報検出装置を備える。
 本発明の第60の態様によると、視性能通知方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正し、補正された前記視線情報である補正視線情報を得ることと、前記補正視線情報と前記被験者の装着した前記光学器具との交点である補正交点群を求めることと、前記補正交点群又は前記補正交点群に基づく視線エリアを前記被験者の視性能として通知することとを含む。
 本発明の第61の態様によると、視性能通知方法は、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正し、補正された前記視線情報である補正視線情報を得ることと、前記補正視線情報から求められた累進帯長を前記被験者の視性能として通知することとを含む。
 本発明の第62の態様によると、プログラムは、コンピュータに、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を入力する入力ステップと、前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算ステップとを実行させる。
 本発明の第63の態様によると、プログラムは、コンピュータに、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて視線情報を検出する検出ステップと、前記光学器具での前記光の屈折に関する光学情報を用いて、検出された前記視線情報を補正する演算ステップとを実行させる。
 本発明の第64の態様によると、プログラムは、コンピュータに、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップとを実行させる。
 本発明の第65の態様によると、プログラムは、コンピュータに、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップと、決定結果に応じて所定の加工装置に前記眼鏡レンズを加工させる加工ステップとを実行させる。
 本発明の第66の態様によると、プログラムは、コンピュータに、光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択ステップとを実行させる。
 本発明の第67の態様によると、コンピュータ読み取り可能な記録媒体は、第62から第66のうちいずれか一の態様のプログラムが記録される。
 本発明の第68の態様によると、所定の収差分布を有する眼鏡レンズは、前記収差分布は、光を屈折させて眼球に入射させる光学器具を装着した被験者の視性能を示すように形成されており、前記視性能は、前記光学器具を装着した前記被験者の前記眼球の状態に基づいて求められた視線情報を前記光学器具での前記光の屈折に関する光学情報を用いて補正して得られる補正視線情報と、前記被験者の装着した前記光学器具との交点である補正交点群又は当該補正交点群に基づく視線エリアである。
 本発明の第69の態様によると、所定の収差分布を有する眼鏡レンズは、前記収差分布は、光を屈折させて眼球に入射させる光学器具を装着した被験者の視性能を示すように形成されており、前記視性能は、前記光学器具を装着した前記被験者の前記眼球の状態に基づいて求められた視線情報を前記光学器具での前記光の屈折に関する光学情報を用いて補正して得られる補正視線情報から求められた累進帯長である。
 本発明の第70の態様によると、測定システムは、被験者が装用する眼鏡を連続的に撮像する撮像部と、前記撮像部により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭を連続的に抽出する抽出部と、前記抽出部により抽出された前記マークまたは前記輪郭の位置の変化量を算出し、この変化量に基づいて、前記眼鏡の位置の変化量を測定する変化量測定部とを備える。
 本発明の第71の態様によると、第70の態様の測定システムにおいて、前記撮像部は、前記被験者の顔に対する相対位置が固定されているのが好ましい。
 本発明の第72の態様によると、第70または71の態様の測定システムにおいて、前記眼鏡の一対のレンズあるいはフレームには、少なくとも2箇所のマークが付されており、前記変化量測定部は、前記少なくとも2箇所のマークの位置の変化量に基づいて、前記眼鏡の平行移動量および前後方向を軸とする回転量の少なくとも一方を測定するのが好ましい。
 本発明の第73の態様によると、第70~72のいずれか一の態様の測定システムにおいて、前記被験者の視線の方向を検出する視線検出部をさらに備えるのが好ましい。
 本発明の第74の態様によると、第73の態様の測定システムにおいて、前記変化量測定部により測定された前記眼鏡の位置の変化量と、前記視線検出部により検出された前記被験者の視線の方向とに基づいて、前記眼鏡のレンズにおいて前記被験者の視線が透過する透過点の位置を検出する透過点検出部をさらに備えるのが好ましい。
 本発明の第75の態様によると、第73または74の態様の測定システムにおいて、同一眼鏡の異なる複数の装用状態のそれぞれに対して、前記視線検出部のキャリブレーションを行うキャリブレーション部と、前記透過点検出部は、前記キャリブレーション部により行われた複数の装用状態のキャリブレーションの結果の中から、前記変化量測定部により測定された前記眼鏡の位置の変化量に対応する装用状態で行われたキャリブレーションの結果を選択し、当該選択したキャリブレーションの結果に基づいて、前記視線検出部により検出された前記被験者の視線の方向を補正する補正部と、をさらに備えるのが好ましい。
 本発明の第76の態様によると、第70~75のいずれか一の態様の測定システムにおいて、前記撮像部は、前記被験者の眼鏡および顔の一部を連続的に撮像し、前記抽出部は、前記撮像部により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭と、前記顔の一部の特徴点とを連続的に抽出し、前記変化量測定部は、前記抽出部により抽出された前記特徴点に対する前記マークまたは前記輪郭の相対位置の変化量を算出し、この変化量に基づいて、前記顔の一部に対する前記眼鏡の相対位置の変化量を測定するのが好ましい。
 本発明の第77の態様によると、第70~76のいずれか一の態様の測定システムにおいて、前記眼鏡の一対のレンズあるいはフレームには、少なくとも3箇所のマークが付されており、前記変化量測定部は、前記少なくとも3箇所マークの位置の変化量に基づいて、前記眼鏡の左右方向および上下方向の少なくとも一方を軸とする回転量を測定するのが好ましい。
 本発明の第78の態様によると、測定方法は、被験者が装用する眼鏡を連続的に撮像する撮像工程と、前記撮像工程により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭を連続的に抽出する抽出工程と、前記抽出工程により抽出された前記マークまたは前記輪郭の位置の変化量を算出し、この変化量に基づいて、前記眼鏡の位置の変化量を測定する変化量測定工程と、を備える。
 本発明の第79の態様によると、第78の態様の測定方法において、前記撮像工程では、前記被験者の顔に対する相対位置が固定されている撮像部により、被験者が装用する眼鏡を連続的に撮像するのが好ましい。
 本発明の第80の態様によると、第78または79の態様の測定方法において、前記眼鏡の一対のレンズあるいはフレームには、少なくとも2箇所のマークが付されており、前記変化量測定工程では、前記少なくとも2箇所のマークの位置の変化量に基づいて、前記眼鏡の平行移動量および前後方向を軸とする回転量の少なくとも一方を測定するのが好ましい。
 本発明の第81の態様によると、第78~80のいずれか一の態様の測定方法において、前記被験者の視線の方向を検出する視線検出工程をさらに備えるのが好ましい。
 本発明の第82の態様によると、第81の態様の測定方法において、前記変化量測定工程により測定された前記眼鏡の位置の変化量と、前記視線検出工程により検出された前記被験者の視線の方向とに基づいて、前記眼鏡のレンズにおいて前記被験者の視線が透過する透過点の位置を検出する透過点検出工程をさらに備えるのが好ましい。
 本発明の第83の態様によると、第81または82の態様の測定方法において、同一眼鏡の異なる複数の装用状態のそれぞれに対して、前記視線検出工程における視線検出のキャリブレーションを行うキャリブレーション工程と、前記透過点検出工程では、前記キャリブレーション工程により行われた複数の装用状態のキャリブレーションの結果の中から、前記変化量測定工程により測定された前記眼鏡の位置の変化量に対応する装用状態で行われたキャリブレーションの結果を選択し、当該選択したキャリブレーションの結果に基づいて、前記視線検出工程により検出された前記被験者の視線の方向を補正する補正工程と、をさらに備えるのが好ましい。
 本発明の第84の態様によると、第78~83のいずれか一の態様の測定方法において、前記撮像工程では、前記被験者の眼鏡および顔の一部を連続的に撮像し、前記抽出工程では、前記撮像工程により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭と、前記顔の一部の特徴点とを連続的に抽出し、前記変化量測定工程では、前記抽出工程により抽出された前記特徴点に対する前記マークまたは前記輪郭の相対位置の変化量を算出し、この変化量に基づいて、前記顔の一部に対する前記眼鏡の相対位置の変化量を測定するのが好ましい。
 本発明の第85の態様によると、第78~84のいずれか一の態様の測定方法において、前記眼鏡の一対のレンズあるいはフレームには、少なくとも3箇所のマークが付されており、前記変化量測定工程では、前記少なくとも3箇所マークの位置の変化量に基づいて、前記眼鏡の左右方向および上下方向の少なくとも一方を軸とする回転量を測定するのが好ましい。
 本発明の第86の態様によると、第70~77のいずれか一の態様の測定システムにおいて、前記変化量に基づき眼鏡レンズ又は眼鏡フレームが被験者に対して合っているかどうかの可否を判断するのが好ましい。
 本発明の第87の態様によると、第78~85のいずれか一の態様の測定方法において、前記変化量に基づき眼鏡レンズ又は眼鏡フレームが被験者に対して合っているかどうかの可否を判断するのが好ましい。
 本発明によれば、より正確な視線情報の検出に寄与することができる。被験者が眼鏡を使用している場合でも、視野の全域で眼球運動データを正しく較正できる。
 また、本発明によれば、被験者における眼鏡の装用状態の変化を測定することができる。
本発明の第1の実施の形態に係る視線検出装置の構成を示す斜視図。 第1の実施形態に係る視線情報補正装置の構成を示す図。 第1の実施形態に係る眼球撮影カメラと被験者の眼球の位置関係を示す図。 第1の実施形態に係る眼球撮影カメラと被験者の眼球の位置関係を示す図。 第1の実施形態に係る眼鏡レンズを装用した被験者の視線を示す図。 第1の実施形態に係るレンズの非点収差図。 第1の実施形態に係る視線誤差の補正手順を示すフローチャート。 第1の実施形態に係る視線検出装置の他の構成を示す斜視図。 第1の実施形態に係る視線検出結果の評価の一形態を示す図。 第1の実施形態に係るレンズ設計方法を示すフローチャート。 第1の実施形態に係るレンズ設計方法を示すフローチャート。 第1の実施形態に係るレンズ選択方法を示すフローチャート。 第1の実施形態の実施例1に係る眼鏡レンズのレンズ形状基礎データを示す表。 実施例1に係る眼鏡レンズのレンズ形状基礎データの一例を示す表。 実施例1に係る眼鏡レンズの透過光線情報を示す図。 実施例1に係る眼鏡レンズの透過光線情報を示す図。 実施例1に係る眼鏡レンズの透過光線情報を示す図。 第1の実施形態の実施例2に係る眼鏡レンズのレンズ形状基礎データを示す表。 実施例2に係る眼鏡レンズの透過光線情報の一例を示す表。 実施例2に係る眼鏡レンズの透過光線情報を示す図。 実施例2に係る眼鏡レンズの透過光線情報を示す図。 実施例2に係る眼鏡レンズの透過光線情報を示す図。 実施例2に係る眼鏡レンズの透過光線情報の一例を示す表。 第1の実施形態の実施例3に係る眼鏡レンズのレンズ形状基礎データを示す表。 実施例3に係る眼鏡レンズのレンズ形状基礎データを示す表。 実施例3に係る眼鏡レンズの透過光線情報を示す図。 実施例3に係る眼鏡レンズの透過光線情報を示す図。 実施例3に係る眼鏡レンズの透過光線情報の一例を示す表。 実施例3に係る視線検出結果の評価の一形態を示す図。 第1の実施形態の実施例4に係る視線検出結果の評価の一形態を示す図。 実施例4に係る視線検出結果の評価の一形態を示す図。 本発明の第2の実施の形態による眼鏡装用状態測定システムの概略を説明する図である。 眼鏡撮影装置の構成を説明する図である。 眼鏡に付されたマークを説明する図である。 眼鏡の撮影画像の表示例を説明する図である。 眼鏡位置の変化量の算出方法を説明する図である。 変形例1による眼鏡位置の変化量の算出方法を説明する図である。 変形例2による眼鏡撮影装置の構成を説明する図である。 被験者の視線が眼鏡レンズを透過する点を説明する図である。 変形例3における眼鏡に付されたマークを説明する図である。 第1の実施の形態において、コンピュータにプログラムを提供する様子を示す図である。 第2の実施の形態におけるプログラムのフローチャートを示す図である。 第1の実施の形態の視線情報補正システムを示す図である。
(第1の実施の形態)
 本発明の第1の実施の形態を説明する。図1は、本実施形態に係る視線検出装置100の構成を示す斜視図である。図1に示すように、視線検出装置100は、ヘッドバンドHB、眼球撮影カメラCMR及び出力ケーブルOLを有している。視線検出装置100としては、例えば(株)ナックイメージテクノロジーのEMR-9や、ISCAN Inc.のAA-ETL-400BやAA-ETL-500Bなどが挙げられる。
 ヘッドバンドHBは、被験者の頭部に装着される。眼球撮影カメラCMRは、ヘッドバンドHBが装着された状態で被験者の瞳孔を撮影する。なお、視線検出装置100は、眼球撮影カメラCMRによる撮影結果から、被験者がどこを見ているのかを算出する不図示の処理部を有していてもよい。また、視線検出装置100は、被験者の眼球の角膜頂点を検出するための赤外光の発光部や、被験者の前方視野を撮影するための視野カメラを有する構成であっても良い。
 視野カメラを有する構成の場合、視野カメラは頭部の動きに関わらず視野を撮影しつつける必要があるため、頭部の動きと同期する位置に取り付ける必要がある。視野カメラを2つつけるのであれば、実際の視野により近くするためにもそれぞれの眼球の真上の、例えばヘッドバンド上に取り付ける。より実際の視野に近くするためには、例えば、ヘッドバンドから下に垂らす形で取り付けるのが良い。視野カメラを1つしか付けないのであれば、両眼の中央、つまり鼻の真上のヘッドバンド上に取り付ける。これも目の高さに取り付けるほうが望ましいのは同様である。
 視野カメラを有する構成の場合、視野カメラのゆがみを補正することは重要である。発明者のめざす累進屈折力レンズを設計するためには、1~2mmの誤差は致命的であるのだが、通常の視野カメラは中心から離れるに従ってゆがみが大きくなるため、特に周辺において大きな誤差をもってしまう。また、広い視野をカバーする眼鏡レンズを設計するためには視野カメラのレンズ(以下、視野レンズ)として広角レンズを用いることになるのだが、広角になればなるほど大きなゆがみを有しているため、視線を検出する際には大きな誤差という欠点を伴うことになる。実際に画角90度の視野レンズを用いたところ、この大きなゆがみのために物点座標がずれてしまい、その結果、許容できない誤差を含んだ視線情報となってしまった。その後、さらに画角の広い視野レンズを用いたが、さらに大きな許容できない誤差を伴ってしまった。よって、視野カメラを有する構成の場合、視野カメラのゆがみを補正するゆがみ補正部を付加することが望ましい。
 ゆがみ補正部における補正方法は、視野レンズの設計情報が入手できるのであればディストーション等のゆがみ情報を得ることができるため、それを打ち消す補正をするという方法であってもいいし、例えば数メートル離れたところに格子模様を描いた紙を張って撮影し、その撮影画像からゆがみ情報を実測し、それを打ち消す補正をするという方法であっても良い。いずれにしても、視野カメラのゆがみを補正するゆがみ補正手段を付加することにより、物点位置が補正されるため、より誤差の少ない視線情報を得ることができる。このようにして、従来より誤差のさらに少ない視線情報を得ることができ、従来より誤差のさらに少ない視線とレンズとの交点を得ることができ、従来より装用者の視線にさらに適合したレンズを設計・提供することが可能となるため、顧客満足度の高いレンズを提供することができる。
 図2は、本実施形態に係る視線情報補正装置200の構成を示す図である。図2に示すように、本実施形態では、視線情報補正装置200として、汎用パーソナルコンピューターが用いられている。視線情報補正装置200は、本体部201、入力部202及び出力部203を有している。なお、視線情報補正装置200としては、汎用パーソナルコンピューターに代えて、例えば専用のデバイスを用いても良い。また、視線情報補正装置200を小型に形成し、視線検出装置100に組み込んだ構成としても構わない。なお、図1の視線検出装置100と図2の視線情報補正装置200により、図43に示すように、視線情報補正システム400を構成する。
 図2において、本体部201は、例えばUSB端子や汎用端子などを有線で接続可能な接続端子CTと、外部との間で無線によって情報の通信を行う通信部CMと、CDやDVDなどの光学式記憶媒体やSDカードなどの磁気式記憶媒体などを挿入可能なスロットSLと、本体部201の内部に設けられたハードディスクドライブなどの記憶部MRと、CPUやメモリなどを備え統括的な処理を行う処理部PRとを有している。
 本体部201は、例えば接続端子CTを介して視線検出装置100の出力ケーブルOLに接続可能である。なお、視線情報補正装置200と視線検出装置100との間が通信部CMを介して無線によって接続された構成であっても良い。また、視線検出装置100による出力結果を光学式記憶媒体や磁気式記憶媒体などの記憶媒体に記憶させ、当該記憶媒体をスロットSTに差し込んで読み取らせる構成であっても構わない。
 出力部203は、ディスプレイなどの画像表示装置MTを有している。画像表示装置MTは、例えば本体部201を介した情報を出力する。また、本体部201を介した情報は、例えば接続端子CTやスロットSLから出力したり、記憶部MRへ出力したりすることもできる。汎用パーソナルコンピューターを用いることにより、手軽に実施できるという利点がある。
 次に、眼鏡を装着した被験者が上記の視線検出装置100及び視線情報補正装置200を用いて視線を検出する場合の動作について説明する。 
 まず、被験者が眼鏡を装着している状態で視線検出装置100を用いる場合に、視線情報補正装置200を用いるべき理由を説明する。
 図3及び図4は、眼球撮影カメラCMRと被験者の眼球EBとの位置関係を示す図である。図3は被験者が眼鏡レンズLを装用している場合、図4は被験者が眼鏡レンズLを装用していない場合、をそれぞれ示している。
 図3に示す場合、眼球撮影カメラCMRは、眼鏡レンズLを装用した被験者の眼球EBを撮影するように位置が調整されている。具体的には、眼球撮影カメラCMRは、眼鏡レンズLを介して被験者の瞳孔Pを撮影するように位置が調整されている。
 また、図4に示す場合、眼球撮影カメラCMRは、被験者の瞳孔Pを直接的に撮影するように位置が調整されている。図4には、視線方向を変える光学器具として眼鏡レンズを装用しない場合の被験者の眼球を、眼球撮影カメラが撮影している場合の例を示した。
 図3及び図4において、眼球EBの向いている方向は同じである。それにも拘わらず、図3において眼鏡レンズLを介した後に瞳孔を撮影する方向(R2→R3)と、図4において瞳孔を撮影する方向(D2→D3)とは異なっている。これは、眼鏡レンズLを介した光が屈折するためである。このように、本実施形態では、眼鏡レンズLは、光を屈折させて眼球に入射させる光学器具として用いられている。図3の場合と図4の場合とでは、眼球撮影カメラCMRで撮影される瞳孔の映像が異なるため、撮影画像から計算される被験者の眼球位置や視線方向、眼球回旋角に誤差が生じる場合がある。
 図5は、光を屈折させて眼球に入射させる光学器具として眼鏡レンズLを装用した被験者が、ある注視点GPを見ている場合の視線の例を示した。注視点GPと眼球EBの回旋中心OCとを直線的に結んだ場合、その直線と眼鏡レンズとの交点は、直線と表面との交点がD1、光線と裏面との交点がD2となる。
 一方、実際の光線の光路は、眼鏡レンズによる屈折作用により直線では結ばれず、光線と眼鏡レンズの表面との交点はR1、光線と裏面との交点はR2となる。このように、D1とR1が一致せず、D2とR2が一致しないため、視線検出装置100によって得られる視線方向(OC→D2)と、被験者の視線方向(OC→R2)とが一致しない。同様の理由で、視線方向から計算される被験者の眼球回旋角も、検出される値と実際の値とは一致しない。
 すなわち、被験者が眼鏡のように光を屈折させて眼球に入射させる光学器具を装着している場合には、例えば視線検出装置100によって得られる視線方向や眼球回旋角は、誤差を含んだ値となる可能性がある。この誤差は、眼鏡を装着した被験者が眼鏡レンズLのどこを通して対象物を見るかを調査する場合や、調査結果を元に眼鏡レンズを設計する場合に、無視できない大きさとなる。
 例えば、累進屈折力レンズの場合には、非点収差の少ない子午線上から水平方向に数ミリずれたところでは大きな非点収差を含むため、ボケやゆがみが生じる。このボケやゆがみがどの程度まで許容できるかを調査する場合には、1~2mmの誤差が致命的となる。
 例えば図6は、加入度3のレンズの非点収差図である。この図において、中心から下方に10mm、中心線から水平方向右側において(図中の両矢印上)、中心から3mmに離れたところでは非点収差が1.0ジオプターとなるため許容されうる場合が多いが、5mm水平方向から離れたところでは非点収差が1.5ジオプターとなり、装用者によっては許容できない値となる場合がある。このように、2mmの違いで性能が異なってくるため、数ミリ単位の誤差であっても解消することは有効である。
 また、上下方向においても、2mmの誤差は大きい。累進屈折力レンズには、近方視をする際の参照ポイントである近用参照点がどれくらい下方にあるのかを示す値として、累進帯長がある。累進帯長が12mmのレンズと累進帯長が14mmのレンズではその性能が大きく異なる。
 このように、特に眼鏡レンズLにおいては、数ミリの誤差であっても解消することが有効である。そのため、被験者が眼鏡を装用している状態で視線検出装置100を用いる場合に、視線検出装置100によって検出される視線方向・眼球回旋角を視線情報補正装置200によって補正する必要がある。
 視野撮影部を有する構成の場合、本発明のねらう精度の設計のためには1~2mmの誤差が致命的であることを考慮すると、以下の仕様を満たしていることが望ましい。すなわち、本発明のねらう設計のためには少なくとも0.1mmの精度が必要であり、レンズの水平方向の横幅をD(mm)、前記装用者の角膜頂点間距離をD1(mm)、前記装用者の角膜頂点から回旋点までの距離をD2(mm)としたときに、前記視野撮影部の全画角が atan(D/(2×(D1+D2)))×2 以上であり、前記視野撮影部の水平方向の画素数がD/0.1 以上である。これは、装用者が横幅D(mm)のレンズを装用した場合の視野をカバーする必要があり、かつ、横幅D(mm)において0.5mmの検出精度が必要であることから来る。例えば、横幅75mmのレンズを装用し、角膜頂点間距離が12mm、角膜頂点から回旋点までの距離が13mmの装用者の場合、視野カメラは全画角が112度以上、水平方向の画素数が750画素以上が望ましい。市販されている視線検出装置の視野撮影部の出力はVGAであり、本発明のねらう設計を行うためには不足していた。
 図7は、当該動作手順の概略を示すフローチャートである。図7に示すように、まず、視線検出装置100を用いて視線情報を取得する(ステップ161)。視線情報を取得する際には、光を屈折させて眼球に入射させる光学器具(例、眼鏡レンズLなど)を装着した被験者の視線情報を求める。この視線情報には、光学器具での光の屈折に起因する視線方向・眼球回旋角の誤差が含まれている。
 視線情報を取得した後、当該視線情報を視線情報補正装置200に入力する(ステップ162)。視線情報補正装置200では、被験者が装着している光学器具の光学情報を用いて、視線情報補正装置200に入力された視線情報を補正する(ステップ163)。ここで、光学情報は、光学器具での光の屈折に関する情報である。
 例えば単焦点球面レンズの光学情報としては、表面の曲率半径、裏面の曲率半径、レンズ厚、レンズ屈折力などが挙げられる。また、レンズと眼球の回転中心である回旋点との相対位置を明確にするためにレンズの前傾角やそり角、角膜頂点距離(レンズの中心と角膜頂点との距離)、角膜回旋点間距離(角膜頂点と回旋点との距離)などが含まれる場合もある。裏面の曲率半径を保存する代わりに、実行時に裏面の曲率半径を導くことのできる、処方度数が含まれる場合もある。
 また、例えば単焦点乱視レンズの場合の光学情報としては、表面の曲率半径、裏面のベース曲率半径、裏面のクロス曲率半径、レンズ厚、レンズ屈折力などが挙げられる。また、レンズと眼球の回転中心である回旋点との相対位置を明確にするためにレンズの前傾角やそり角、角膜頂点距離(レンズの中心と角膜頂点との距離)、角膜回旋点間距離(角膜頂点と回旋点との距離)などが含まれる場合もある。裏面のベース曲率半径・クロス曲率半径を保存する代わりに、実行時に裏面のベース曲率半径・クロス曲率半径を導くことのできる、処方度数S・Cが含まれる場合もある。
 例えば累進屈折力レンズの場合の光学情報は、表面、裏面の面形状が再現できるパラメータと、レンズ厚、レンズ屈折力などが考えられ、レンズと眼球の回転中心である回旋点との相対位置を明確にするためにレンズの前傾角やそり角、角膜頂点距離(レンズの中心と角膜頂点との距離)、角膜回旋点間距離(角膜頂点と回旋点との距離)などが含まれる場合もある。累進屈折力レンズの場合の面形状が再現できるパラメータとしては、3次元測定器などで測定できる光軸方向のサグ量が考えられる。また、サグ量をいくつかの構成要素に分割できる場合には、面形状の母球面ベース曲率半径、母球面クロス曲率半径、残存サグ量という構成をとることもできる。面形状が、非球面や多項式等の別の表現式を含んでいる場合には、当該表現式を表現するために必要なパラメータが含まれる場合もある。
 球面やトーリック面以外の面の場合、上記光学情報が大量になる場合がある。特に累進屈折力レンズの場合、データが大量になる傾向がある。その場合の記憶領域削減方法としては、処方範囲をいくつか細分化されたグループに分け、グループ毎に共通の上記レンズ形状基礎データ(の全部または一部)を用いる、などの工夫が考えられる。レンズシリーズあたり1枚のメモリチップに収まらないようでは実用上とても不便であるため、これら記憶領域削減方法は有用である。
 累進屈折力レンズの場合など、面形状をサグメッシュにて表現した場合、面形状の再現性を優先すると、サグメッシュのメッシュ間隔が狭くなり、データも大量になる上、視線検出する際の計算時間が長くなる。上記誤差補正手段を、視線検出装置100から取得した結果を保存した保存データに対して適応する場合にも、視線検出装置100から取得した結果に対しリアルタイムに適応する場合も、計算時間の短縮化が必要となることが多い。そのため、面形状が特徴的である部分、例えば累進屈折力レンズの場合の子午線を中心とした10mmの範囲など、に対してはレンズ形状基礎データに従って形状を再現するが、その外側の範囲に関しては単焦点として再現する、などの工夫や、最も単純には、サグメッシュを荒くするなどの計算削減方法は有用である。
 上記のような光学情報は、例えば視線情報補正装置200の記憶部MRに記憶させておいても構わないし、接続端子CTや通信部CM、スロットSLなどを介して外部から視線情報補正装置200に入力させるようにしても構わない。この場合、処理部PRは、視線情報を補正する際に、光学情報として、例えば記憶部MRに記憶された光学情報や、接続端子CTや通信部CM、スロットSLなどを介して外部から得られる光学情報を用いることができる。
 例えば眼鏡レンズLの光学情報であれば、異なるレンズシリーズに対応できるようにするため、レンズシリーズ毎にメモリカードなどの記憶媒体を作成しておき、各記憶媒体にレンズシリーズ内のすべての処方に対応できる表面形状基礎データなどのデータを記憶させておくようにしても構わない。
 この場合、新しいレンズシリーズが登場したときに、当該新しいレンズシリーズの光学情報を記憶する記憶媒体を作成することにより、容易に対応できる。また、すべてのレンズシリーズのデータを1つの保存領域に保存できる場合には、新しいレンズシリーズが登場するたびにデータを更新すれば良い。
 次に、視線情報を補正する動作を詳細に説明する。まず、処理部PRは、注視点位置、レンズ形状、回旋点から、回旋点を通る光線の中で注視点位置を通る光線を求める。注視点位置、レンズ、回旋点を配置する際の相対位置関係は、表面形状基礎データにおける、前傾角やそり角、角膜頂点距離(レンズの中心と角膜頂点との距離)、角膜回旋点間距離(角膜頂点と回旋点との距離)などを考慮する必要がある。視野中に基準となるいくつかの物体を決め、その物体までの距離を予め測定しておき、この物体までの距離を演算中に用いることにより、例えば、注視点位置の補正に用いることにより、より精度の高い結果を得ることができる。
 被験者のレンズの相対位置が、表面形状基礎データから得られたデフォルト値と異なる場合には、この段階で実測の値を用いて相対位置を決める方が精度は高くなる。回旋点を通る光線の中で注視点位置を通る光線を求める際には、逐次追い込み方法やニュートン法などの追い込み方法を用いて求めることが一般的であるが他の方法を用いても良い。
 この結果、注視点位置と回旋点を通り光学器具を通過する光線が求まる。これにより、図5における、回旋点から光学器具へと入射する光線の第一視線方向ベクトル(OC→R2)と、入射点座標R2、および、光学器具から注視点へと射出する光線の第二視線方向ベクトル(R1→GP)と射出点座標R1が求まる。補正された視線方向として第一視線ベクトル(OC→R2)を採用し、補正された眼球回旋角として、当該第一視線方向ベクトル(OC→R2)を角度換算した値を採用する。角度換算するときの基準は光軸を用いることが一般的であるが、自然な視線方向を基準として用いてもかまわない。注視点へと向かう視線方向が必要な場合には第二視線方向ベクトル(R1→GP)を計算して採用すればよく、光学器具への入射座標が必要な場合にはR2を採用すればよく、光学器具からの射出座標が必要な場合にはR1を採用すればよい。
 また、予め光線追跡を行いその結果を保存しておき、視線計測時には保存した結果を用いる場合には、処理部PRは、記憶部MRに記憶された光学情報、あるいは、接続端子CTや通信部CM、スロットSLなどを介して外部から得られる光学情報の中から、被験者の装用している光学器具に関するデータを検索する。その後、処理部PRは、視線検出装置100から得られた注視点近くを通る光線に関するデータを検索する。その後、注視点近くを通る光線に関するデータ群を補間処理することにより、注視点と回旋点を通る光線を求め、その光線から補正された視線情報を得ることになる。
 ここで、上記ピッチは、光学器具の光線通過範囲および必要とされる補正精度によって適正に設定する必要がある。例えば、光学器具の裏面において5mmピッチで光線を通すようにしても構わない。また、計算時間を優先するのであれば、5mmよりもピッチを大きく設定しても構わないし、精度を優先するのであれば、5mmよりもピッチを小さく設定してもよい。累進屈折力レンズの場合には、当該ピッチを例えば3mm以下、望ましくは1mm程度に設定すると良い。
 また、上記入射光線情報としては、回旋点から光学器具へ向かう方向ベクトルが含まれる。また、上記入射交点情報としては、回旋点から光学器具へ向かう光線と光学器具との交点座標が含まれる。また、上記射出光線情報としては、光学器具から注視点へと向かう方向ベクトルが含まれる。また、上記射出交点情報には、光学器具から注視点へと向かう光線と光学器具との交点座標が含まれる。
 次に、処理部PRは、光線検索と補間を行う。射出光線情報と射出交点情報とから射出光線群を再現し、射出光線群から注視点に近い2本を選ぶ。注視点に近い2本の射出光線に対応した入射光線を選び、選ばれた2本の射出光線と入射光線とを補間して回旋点と注視点を通る光線を生成する。生成された光線は、当該補間して求めた光線であるため、必ずしも注視点を通るわけではなく、注視点のごく近くを通る場合もあるため、注視点を通る光線として、この補間光線を採用することができる。
 なお、補間光線を求める際に、入射光線情報の補間や射出光線情報の補間だけでなく、光学器具との交点の補間も行うことにより、補間光線の交点を得ることができる。また、補間光線情報より、視線方向・回旋角を求めることができる。
 例えば、頭を固定している、椅子に座っているなどのため、被験者と眼鏡と視線検出装置の相対位置が変わらない場合はこれまでに述べた方法で十分誤差が補正されているのだが、顔を大きく動かす、顔をすばやく動かす、運動するなど体が安定してない、車に乗っているなど安定状態にない場合、被験者と眼鏡と視線検出装置の相対位置が測定の最中に変わってしまう。発明者が実験をしたところ、これも大きな誤差を生む原因であった。そのため、被験者と眼鏡と視線検出装置のうちの少なくとも二つ、可能であればすべての相対位置を検出し、その相対位置のずれを補正する、相対位置検出手段と相対位置補正手段を伴っていることが望ましい。
 相対位置検出手段は、例えば、眼球撮影カメラにおいて、被験者と被験者の装用する眼鏡の少なくとも一方の特徴点を、可能であれば両方の特徴点を検出するようにし、その特徴点を測定している間は追いかけ続けるように設定することで達成される。これに限らず、相対位置検出用のカメラを設置する、磁力を使って互いの相対位置がわかる仕組みを導入する、などによっても達成される。
 相対位置補正手段は、相対位置検出手段によって検出された被験者や眼鏡の特徴点から相対位置を計算し、それを補正する。これにより、想定している被験者と眼鏡と視線検出装置の相対関係がずれた場合であっても、誤差が生じるのを防ぐことが出来る。これにより、従来よりさらに顧客満足度の高いレンズを設計することが出来る。
 以上の処理により、補正された視線方向・補正された眼球回旋角・光学器具と補正された視線との補正された交点を得ることができる。この結果、従来より誤差の少ない視線情報を得ることができ、従来より誤差の少ない視線とレンズとの交点を得ることができ、従来より装用者の視線に適合したレンズを設計・提供することが可能となるため、顧客満足度の高いレンズを提供することができる。すなわち、眼球画像、瞳孔画像や眼球回旋角などの眼球情報、注視点、レンズ入射視線方向、レンズ射出視線方向、レンズ交点などの視線情報に対し、眼球と注視点との間にある1でない屈折率を持つレンズ等の屈折物の屈折率や屈折率に基づく屈折力などを用いて補正を行う視線関連装置や視線補正方法などを実現することができる。簡単に言うと、眼球情報、視線情報に対し、眼球と注視点との間にあるレンズ等の屈折物の屈折率や屈折力を用いて補正を行うことができる。
 なお、本実施形態において、例えば図8に示すように、処理部PR及びスロットSLがヘッドバンドHBなどに固定された構成であっても構わない。この場合、処理部PRとして、視線誤差補正機能を備えたチップCHが用いられる。スロットSLは、光学媒体や磁気媒体などの記憶媒体が挿入可能である。スロットSLは、記憶媒体に記憶された光学情報などのデータを読み込むことができるようになっている。
 この構成においては、眼球撮影カメラCMRによって撮影された視線情報の出力と、中間データである視線誤差補正機能へのデータの取り込みが不要となる。すなわち、誤差の補正された視線情報をダイレクトに取り出すことが可能となる。これにより、視線検出装置101の出力結果に対して誤差補正という変換作業を行う必要がなくなり、作業のスピードアップが図れる。また、中間データがなくなるため、ハードディスクなどの記憶装置の容量の節約にもなる。
 処理のスピードアップが図られ、リアルタイムで誤差補正されたデータが得られるため、例えば別途視野カメラが設けられる場合、当該視野カメラの動画と誤差補正された視線情報とを組み合わせて表示することも可能となる。このため、視線情報取得と誤差補正を別々の工程で行っていたときには取得することの出来なかった、被験者の応答を確認しながらのデータ取得が可能となる。また、装置のコンパクト化が可能となる。
 視線誤差の補正を行った後、例えば視線追跡結果評価装置を用いて、補正結果の評価を行っても良い。補正結果を評価する場合、例えば視線追跡結果評価装置は、まず視線誤差の補正結果である補正された眼球回旋角を用いることにより眼鏡レンズと視線との交点を求め、次に求めた結果を表示デバイス上に表示することが挙げられる。なお、当該表示デバイス上に表示する際には、眼鏡フレーム及び眼鏡レンズの図に対応させるように、上記求めた結果を表示させる。
 表示デバイスに示された眼鏡フレームと補正された交点との位置関係を確認することにより、眼鏡フレームが実際の装用者の視線の移動範囲に納まっているかを把握することができる。補正された交点と補正されていない交点とでは、上記の通り、場合によっては5mmもの差が出るため、装用者が装用できるフレーム群は大幅に異なってくることになり、補正された交点によるフレーム群の方が正しいフレーム群を与えることになる。これはお客様にとって大きなメリットとなる。
 例えば、眼鏡フレームと眼鏡レンズの絵と補正された交点を図示したものが図9(a)及び図9(b)である。眼鏡レンズには近用参照点NPが描かれており、眼鏡フレームFRM、補正交点ACPも同時に描かれている。このように眼鏡レンズ上の近用参照点を図示しておくことにより、装用者が普段の生活をしたときに近用参照点まで眼球を回旋させることができるのかを手軽に知ることができる。
 例えば図9(a)に示す場合において、右眼の評価結果を見ると近用参照点NPに補正された交点ACPが到達しているが、左眼の評価結果を見ると近用参照点NPに補正された交点ACPが到達していないことがわかる。すなわち、この装用者の場合、普段の生活において左眼は近用参照点の位置まで回旋できてないため、装用しているレンズが装用者にあっていないことがわかる。
 また、例えば図9(b)に示す場合ように、眼鏡レンズに収差の大きい範囲を図示することにより、装用者の視線移動のくせとレンズの収差の小さい範囲が適合しているか否かを簡単に判別することができる。例えば図9(b)の場合、収差の大きい領域を補正された交点が通過することがないため、収差的に合ったレンズを装着していることがわかる。
 補正結果を評価する際、視線追跡結果評価装置は、例えば別途視野カメラが設けられている場合、当該視野カメラによって撮影された動画と補正された眼鏡レンズとから視界方向への射出ベクトルとを表示することにより、どのような角度でどの点を見ているのかを明確に判別することができる。これにより、見難さの原因追求を行うことができる。
 このように、視線追跡結果評価装置を用いて視線誤差の補正結果を評価することにより、視線誤差の正確な評価を行うことが可能となり、装用者が装用しているフレームや眼鏡レンズが、当該装用者にとって適切なものか否かの評価を手軽に行うことができる。また、これまで理由が明確でなかった不快感の原因を突き止め、改善することができる。すなわち、眼球画像、瞳孔画像や眼球回旋角などの眼球情報、注視点、レンズ入射視線方向、レンズ射出視線方向、レンズ交点などの視線情報に対し、眼球と注視点との間にある1でない屈折率を持つレンズ等の屈折物の屈折率や屈折率に基づく屈折力などを用いて補正を行って求めた補正情報を利用して評価値を算出する評価値算出装置や評価値算出方法を実現することができる。この評価値を用いて、後述するレンズを設計する方法や、レンズを選択する方法を実現することができる。また、評価値を用いて設計したレンズを実現することができ、評価値を表示する表示方法を実現することができる。
 次に、本実施形態に係る眼鏡レンズの設計方法を説明する。図10は、本実施形態に係る眼鏡レンズの設計方法を示すフローチャートである。図10に示すように、本実施形態では、装用者毎にレンズを設計する。まず、視線検出装置100と視線情報補正装置200を用意する。その後、眼鏡レンズなどの光学器具を装着した被験者に対し、準備した視線検出装置100を装着する。その後、上記説明と同様に、装用者の視線を測定し(ステップ191)、取得した視線情報を入力し(ステップ192)、入力された視線情報に含まれる誤差を補正する(ステップ193)。
 その後、補正された視線情報を用いることにより、補正された眼球の回旋角、光学器具と視線との交点を得ることができる。この結果、被験者がレンズ上の視線の動く領域を得ることができる。この領域が、眼鏡レンズにおける使用エリアとなる(ステップ194)。
 次に、その使用エリアの収差が小さくなるよう収差分布や面形状を決定する(ステップ195)。レンズのすべての領域の収差を良くすることには限界があるため、使用領域の収差を優先的に小さくすることができるようになる。例えば、被験者のレンズ上の視線領域における非点収差を1.0ジオプター以下になるよう設計することが考えられる。また、より交点密度の高い領域や滞在時間の長い領域においては、0.5ジオプター以下にするなど、さらに収差を抑えることも考えられる。遠用領域と近用領域とでは非点収差に対する許容量が異なるため、遠用領域においては0.5ジオプター以下にし、近用領域においては1.0ジオプター以下にする場合もある。また、非点収差だけでなく、平均球面度数やディストーションなど他の収差に関して、この領域を優先的に小さくする場合もある。このように補正された視線情報を用いることにより、実際の装用状態のレンズにおける装用者の視線と、レンズの収差分布を合わせる設計が可能となり、装用者に快適な視界を提供することができるようになる。
 以上の説明は、1人に対してレンズの設計を行う方法の実施の形態であるが、複数人に対して眼鏡レンズの設計を行う場合も可能である。図11は、複数人に対して眼鏡レンズの設計を行う場合のフローチャートである。複数人に対して眼鏡レンズの設計を行うメリットとして、例えば補正された視線情報を大量に集めることにより、人間の共通する目の使い方を反映させた製品を作ることができることにある。1人に対して本発明を実施した場合はその人専用のレンズになるが、人間の共通する目の使い方を反映させたレンズは多くの人にとって快適な視界を提供する製品として生産するができる。この結果、安価な眼鏡レンズを提供することができる。
 複数人の補正された視線情報をとる作業は、1人の補正された視線情報をとる作業と同等の作業を、繰り返し行うことによって取得できる(ステップ201~ステップ203)。このようにして取得された複数の補正された視線情報を用いることにより、補正された眼球の回旋角、光学器具と視線との交点を複数得る(ステップ204)。
 このようにして得られた複数の交点を統計処理することにより、多くの人の視線が通る領域を得る(ステップ205)。この際、交点密度の高さや滞在時間の長さを考慮することが望ましい。次に、その領域の収差が小さくなるよう収差分布や面形状を決定する(ステップ206)。レンズのすべての領域の収差を良くすることには限界があるため、使用領域の収差を優先的に小さくする。このように補正された視線情報を用いることにより、多くの人が使用する領域とレンズの収差分布を合わせる設計が可能となり、また、このようにして設計されたレンズを大量に生産することにより、多くの装用者にとって快適な視界を安く提供することができるようになる。
 次に、上記のようにして設計された眼鏡レンズを製造する方法を説明する。すでに述べられた方法によって設計されたレンズに対し、加工機が必要とする加工ピッチに従って加工データの取得を行う。加工ピッチはどのような加工機を用いるか、加工ツールにどのようなものを用いるかによって最適なピッチが選ばれる。
 設計データはコンピュータに入力され、専用ソフトによって指定されたピッチの加工データを出力する。出力された加工データを加工機に送ることによってレンズの製造が行われる。このような方法で製造されたレンズは、実際の装用状態のレンズにおける装用者の視線と、レンズの収差分布を合わせる設計が可能となり、装用者に快適な視界を提供するレンズとなる。
 以上の説明は、測定された後に補正された視線情報から得られたレンズ形状のデータを直接的に製造装置へ送信し、このデータを用いて加工する場合の例であるが、これに限られることは無い。例えば、データの転送、加工のタイミングに関しては任意である。また、データを取得する場所と、視線情報を補正する場所、加工データを作成する場所、加工機の場所については、同じ場所にある必要はなく、それぞれが別の場所に設けられていても良い。この場合、通信手段によって各種データの通信を行うことで、各場所において作業を行うことが出来る。
 次に、上記の視線検出装置100及び視線情報補正装置200を用いて眼鏡レンズを選択する方法を説明する。図12は、本実施形態に係る眼鏡レンズの選択方法を示すフローチャートである。
 本実施形態においては、まず、視線検出装置100及び視線情報補正装置200を用いて上記説明と同様の手順により、被験者の視線情報を取得し、当該視線情報を補正する(ステップ211~ステップ213)。この結果、補正された眼球の回旋角、光学器具と視線との交点を得ることができる。
 次に、処理部PRは、補正された眼球の回旋角、光学器具と視線との交点のデータを用いて、被験者についてのレンズ上の視線の動く領域(使用エリア)を求める(ステップ214)。この場合、被験者に処方するレンズを複数タイプ準備しておき、この複数タイプのレンズに対し、被験者の使用エリアの収差をそれぞれ取得する。処理部PRは、取得した使用エリアの収差を用いて、被験者に適する眼鏡レンズを選択する。この場合、例えば被験者の使用エリアの収差が一番小さいものを被験者にとって最適なものとして選ぶこともできるし、被験者の使用エリアの収差をもとに優先順位付けを行うこともできる。後者の場合、例えば被験者が優先順位付けをもとに最終決定を行う。
 このように、補正された視線情報を元にレンズ選択を行うことが大切であり、視線情報を補正することによって初めて装用者の視線領域とレンズ性能とが一致したレンズを選択することが出来、装用者にとって快適な視界を提供することができるようになる。
 次に、本実施形態に係る眼鏡レンズの説明をする。本実施形態の眼鏡レンズは、補正された視線を用いて特徴点が定められたレンズとなる。特徴点とは、例えば、近用参照点やある値のアスをもつ領域など、レンズにおける収差を特徴付ける点である。以下、近用領域の性能を決める際の手順を示す。
 近用領域を決める際には、装用者に本を持ってもらうなどして普段の近用作業位置に注視対象物を置いてもらうことにより、近用作業時の注視点、近用注視点を特定する。続いて、その近用注視点を見ている被験者に対し、視線検出装置100と視線情報補正装置200、またはそれを一体化した視線検出装置101を用いることにより、近用注視点を注視している際の補正された視線を取得する。
 この補正された視線とレンズとの交点に近用注視時参照ポイントを配置すれば、被験者の実際の視線に合ったレンズとなる。すなわち、補正された視線とレンズとの交点に近用注視時参照ポイントが配置されることになる。
 ここで、近用注視時参照ポイントとは、近用注視時の補正された光線とレンズとの交点であり、レンズ上に設定される参照点となる。
 例えば、近用注視時参照ポイントで安定的に、すなわち度数の変化が少なくアスも少ない状態で安定した像を見る場合、近用注視時参照ポイントに近用参照点を設定すればよい。また、近用注視時参照ポイントにおいて、近用注視点を視認可能な度数で十分であれば、近用注視時参照ポイントに近用参照円の上端を設定すればよい。
 近用注視時参照ポイントに、近用参照点を設定するか、近用参照円の上端を設定するか、もしくは、その中間を設定するか、について、例えばメーカーや眼鏡店ごとに近用作業時の視線とレンズ上のどの点を対応させるかが決められている場合、当該決められている点を近用注視時参照ポイントに設定すればよい。
 従来の視線検出装置によって定められる近用参照ポイントは、図5における視線OC→D2によって定められるD2に近用注視時参照ポイントが設定されることになる。これに対して、本発明の視線検出装置を使うことにより、図3における視線OC→R2によって定められるR2に近用注視時参照ポイントが設定されることになる。
 このため、近用注視時参照ポイントをNRPとし、近用注視点と回旋点(もしくは瞳孔中心)とを直線で結んだ線とレンズとの交点をD1(表面)、D2(裏面)とし、本発明によって補正された視線とレンズとの交点をR1(表面)、R2(裏面)としたときに、近用参照点もしくは近用参照円が設定されているレンズ面をi(i=1のとき表面、i=2のとき裏面)とすると、
 y(NRP)≠y(Di) となっている。
 より好ましくは、近用注視時参照ポイントにおける透過球面度数がゼロより大きいときには、
 |y(NRP)|<|y(Di)|
 となっている。
 また、近用注視時参照ポイントにおける透過球面度数がゼロ未満のときには、
 |y(NRP)|>|y(Di)|
 となっている。
 以下、被験者の望む透過性能を達成する際の手順を示す。被験者には、まず、はっきり見えている第一状態、当該第一状態に比べてぼやけた第二状態、当該第一状態に比べてかなりぼやけた第三状態、をそれぞれ体感させる。具体的には、第一状態については、被験者の処方度数に合った単焦点レンズ(処方単焦点レンズと呼ぶ)を装用させることにより体験させる。第二状態については、処方単焦点レンズから多少度数のずれた乱視レンズ(例えば、0.25Dptや0.5Dpt)を装用させることにより体験させる。第三状態については、処方単焦点レンズからかなり度数のずれた乱視レンズ(例えば、0.75Dptや1.00Dpt)を装用させることにより体験させる。
 次に、被験者に、各状態でどの範囲を見たいのかを指定させる。例えば、部屋の中に被験者を立たせ、部屋の壁に升目や模様などを貼り、第一状態でどの升目・模様まで見たいのかを指定させる。次に、第二状態でどの升目・模様まで見たいのかを指定させる。その後、第三状態でどの升目・模様まで見たいのかを指定させる。
 第一状態、第二状態及び第三状態の各状態について、被験者に数点指定させる。この指定する点の数は多い方がより複雑な領域を示すことができ、被験者の希望がより反映されるため、望ましい。
 被験者に点を指定させる際、被験者の指定した点を見ている時の当該被験者の補正された視線を、視線検出装置100と視線情報補正装置200、またはそれを一体化した視線検出装置101を用いることにより取得する。この作業により、被験者の視野に対する希望と、レンズ上の座標、および、その位置での希望性能(許容非点収差値)とのマッチングが完成する。具体的には、0.5Dptの乱視レンズを装用して求めたレンズ上の座標においては、0.5Dpt以下の透過非点収差が達成されれば良いことになる。換言すると、上記によって得られたレンズ上の座標において希望性能を満たせば、被験者が望む視野を提供するレンズが可能となることになる。
 このように、補正された視線に基づき設計を行ったレンズは、被験者の指定した点と回旋点(もしくは瞳孔中心)とを直線で結んだ線とレンズとの交点をD1(表面)、D2(裏面)とし、本発明によって補正された視線とレンズとの交点をR1(表面)、R2(裏面)とすると、
 D1≠R1 かつ D2≠R2
 となっている。
 度数がほぼ一定の遠用エリアにおいては、レンズの光学中心からの距離をLENGTH()とすると、
 遠用エリアの度数がプラスの時には、
 LENGTH(D1)<LENGTH(R1)
 かつ
 LENGTH(D2)<LENGTH(R2)
 となっている。
 また、遠用エリアの度数がマイナスの時には、
 LENGTH(D1)>LENGTH(R1)
 かつ
 LENGTH(D2)>LENGTH(R2)
となっている。
 尚、この例では乱視度数をずらしたレンズを装用させ、被験者の視野とレンズ上の透過非点収差分布とのマッチングを行ったが、球面度数を処方度数からずらしたレンズを装用させることで、被験者の視野とレンズ上の透過球面度数分布とのマッチングを行うことも出来る。また、被験者がどのようにぼけるのかの認識がある場合には、度数をずらしたレンズをかけさせることは必須ではない。
 次に、本実施形態に係る視性能通知方法の説明をする。当該視性能通知方法は、視線検出装置100と視線情報補正装置200を用いることにより取得した情報、および、その情報から計算される値を被験者に提示する方法である。まず、視線検出装置100と視線情報補正装置200、またはそれを一体化した視線検出装置101を用い、被験者の補正された視線を取得する。
 その後、取得された視線とレンズとの交点を求め、レンズ上の交点群を取得する。また、近用注視点を見たときの、補正された視点とレンズとの交点を取得し、当該取得結果とレンズにおけるフィッティングポイントとから補正された累進帯長を取得する。当該取得した累進帯長これを、被験者に通知又は提示する。
 提示方法としては、例えば、モニタによる提示や紙に印刷しての提示、レンズ仕様書としての提示、配布などが挙げられる。また、単に本方式による交点の図示だけでなく、従来の方法による交点と本方式による交点の両方を例えば図31にように提示しても良い。これにより、本発明のレンズの効果がよりダイレクトに伝えることができる。本方式による交点とレンズの収差分布を重ねて図示すればさらに効果的である。また、累進帯長についても、例えば図5のような図と共に本方式による累進帯長を記述すれば、本発明のレンズの効果がわかりやすく伝わる。このような通知方法、特に、従来の方式と本方式の併記による通知方法を用いることにより、従来の方法では得られなかった納得を与えることができるなど、高い効果が見込まれる。
 なお、上記説明した動作については、所定のプログラムを用いてコンピュータに行わせても良い。
 例えば、プログラムを用いて、コンピュータに、上記視線情報を所定の入力部に入力させる入力ステップと、入力部に入力された視線情報を補正する上記の演算ステップとを実行させても良い。
 また、プログラムを用いて、コンピュータに、上記視線情報を検出する検出ステップと、上記視線情報を補正する演算ステップとを実行させても良い。
 また、プログラムを用いて、コンピュータに、上記視線情報を補正する補正ステップと、補正された視線情報と注視点位置、レンズ形状、回旋点といった位置情報及び上記光学情報とに基づいて被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップとを実行させても良い。
 また、プログラムを用いて、コンピュータに、上記光学情報を用いて上記視線情報を補正する補正ステップと、補正された視線情報と上記位置情報及び光学情報とに基づいて、被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップと、決定結果に応じて所定の加工装置に眼鏡レンズを加工させる加工ステップとを実行させても良い。
 また、プログラムを用いて、コンピュータに、上記光学情報を用いて上記視線情報を補正する補正ステップと、補正された視線情報、上記位置情報及び光学情報に基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から被験者が装用する眼鏡レンズを選択する選択ステップとを実行させても良い。
 なお、上記プログラムは、CD-ROM、DVD、フラッシュメモリなどのコンピュータ読み取り可能な記録媒体に記録させておくことができる。記録媒体に記録された上記プログラムを用いることにより、コンピュータに上記動作を実行させても良い。また、上記プログラムは、インターネットを介してデータ信号によってコンピュータに提供することもできる。
 図41はこれらの様子を示す図である。パーソナルコンピュータ200は、前述した視線情報補正装置200としての汎用パーソナルコンピューターであり、CD-ROM304を介してプログラムの提供を受ける。また、パーソナルコンピュータ200は通信回線301との接続機能を有する。コンピュータ302は上記プログラムを提供するサーバーコンピュータであり、ハードディスク303などの記録媒体にプログラムを格納する。通信回線301は、インターネットなどの通信回線、あるいは専用通信回線などである。コンピュータ302はハードディスク303を使用してプログラムを読み出し、通信回線301を介してプログラムをパーソナルコンピュータ300に送信する。すなわち、プログラムをデータ信号として搬送波にのせて、通信回線301を介して送信する。このように、プログラムは、記録媒体やデータ信号などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
 次に、本実施形態における実施例を説明する。 
 (実施例1) 
 本実施例1では、眼鏡レンズとして、単焦点球面レンズの場合を考える。図13は、記憶部MRなどの記憶されるレンズ形状基礎データの内容を示す。また、透過光線情報を保存する場合の保存内容は図14である。透過光線情報は、図13のレンズ形状基礎データを用い、レンズと回旋点を再現し、回旋点を通る光線を生成しすることによって得られる(図15)。図13のレンズ形状基礎データを有する眼鏡レンズは回転対称レンズであるため、1軸に沿って行なえば十分である。
 図13に関して、実施例としては、(y、z)=(20、0)から(y、z)=(-20、0)の範囲において、5mmピッチにて例示したが、必要に応じて範囲を広げたり、ピッチを細かくすることになる。
 視線検出装置100を用いて得られた注視点が回旋点を原点として(100、-50、0)の座標にあった場合の補正を考える。回旋点を通り、レンズによって屈折し、注視点を通る光線を求めると、図16のようになる。これにより求まった値は図17のようになる。視線検出装置100による値も併記したが、その差は明らかで、本発明の効果が大きいことが理解できる。
 (実施例2) 
 本実施例2では、眼鏡レンズとして、単焦点乱視レンズの場合を考える。レンズ形状基礎データを保存する場合の保存内容が図18である。また、透過光線情報を保存する場合の保存内容は図19である。透過光線情報は、図18のレンズ形状基礎データを用い、レンズと回旋点を再現し、回旋点を通る光線を生成しすることによって得られる(図20、図21)。
 図19に関して、実施例としては、(y、z)=(20、-5)から(y、z)=(-20、-5)の範囲において、5mmピッチにて例示したが、必要に応じて範囲を広げたり、ピッチを細かくすることになる。
 視線検出装置100を用いて得られた注視点が回旋点を原点として(100、-96.8、0)の座標にあった場合の補正を考える。回旋点を通り、レンズによって屈折し、注視点を通る光線を求めると、図22のようになる。これにより求まった値は図23のようになる。視線検出装置100による値も併記したが、その差は明らかで、本発明の効果が大きいことが理解できる。
 (実施例3) 
 累進屈折力レンズの場合を考える。レンズ形状基礎データを保存する場合の保存内容が図24と図25である。図25は累進面形状を母球面からの差分としてサグ化したものである。また、透過光線情報を保存する場合の保存内容は図17である。透過光線情報は、図24、図25のレンズ形状基礎データを用い、レンズと回旋点を再現し、回旋点を通る光線を生成しすることによって得られる(図26)。
 図27に関して、実施例としては、(y、z)=(20、-5)から(y、z)=(-20、-5)の範囲において、5mmピッチにて例示したが、必要に応じて範囲を広げたり、ピッチを細かくすることになる。
 視線検出装置100を用いて得られた注視点が回旋点を原点として(100、-50、0)の座標にあった場合の補正を考える。回旋点を通り、レンズによって屈折し、注視点を通る光線を求めると、図28のようになる。これにより求まった値は図29のようになる。視線検出装置100による値も併記したが、その差は明らかで、本発明の効果が大きいことが理解できる。
 (実施例4) 
 本実施例4では、補正された眼球の回旋角、光学器具と視線との交点のデータを用いて、被験者についてのレンズ上の視線の使用エリアを求める例を説明する。
 レンズタイプの候補が3種類あったとする。その3種類のレンズはフィッティングポイントの水平方向における非点収差を測った場合の、非点収差が1.0ジオプターを越えるまでの距離が異なっている。例えばレンズAは3mm、レンズBは6mm、レンズCは15mmである。
 ここで被験者の補正された視線情報より計算した使用エリアは、例えば図30に示すように、フィッティングポイント水平方向において5mmであった。この被験者の場合、レンズAを装用した場合は非点収差が1.0ジオプター以上の非常に見づらい領域を通るため、不快さを感じる。よって、レンズB又はレンズCから選ぶことになる。
 この場合、被験者はレンズCを装用した場合に不快さを感じないが、レンズCは5mmの被験者に対しては過補正とも言える。よって、優先順位はレンズBがレンズCよりも高く、レンズAは不適合となる。しかし、従来の視線検出装置の場合、被験者の補正された視線情報より計算した使用エリアは、例えば図31に示すように、フィッティングポイント水平方向において7mmとなる。この場合、レンズA、レンズBは不適合であり、レンズCのみが適合となり、過補正されたレンズを選択の余地が無いように選ばなければならない。このように、視線情報の補正の有無により結果が変わってきてしまうのである。
(第2の実施の形態)
 以下、図面を参照して、本発明による第2の実施の形態について説明する。図32は、本発明の第2の実施の形態による眼鏡装用状態測定システム1の概略を説明する図である。眼鏡装用状態測定システム1は、眼鏡撮影装置10とコンピュータ20とを有する。眼鏡撮影装置10は、被験者の頭部に装着され、眼鏡を装用した被験者を連続的に撮影する。コンピュータ20は、眼鏡撮影装置10により連続的に撮影された画像に基づいて、眼鏡の位置の変化量を測定することで、被験者における眼鏡の装用状態の変化を測定する。
 図33は、眼鏡撮影装置10の構成を説明する図である。図33(a)は、眼鏡撮影装置10を被験者2の頭部に装着した様子を示す図であり、図33(b)は、被験者2側から見た眼鏡撮影装置10の構成を示す図である。図33(a)に示すように、眼鏡撮影装置10は、カメラ11、赤外光源12、ダイクロイックミラー13およびヘッドバンド14を有する。眼鏡撮影装置10は、ヘッドバンド14により被験者2の頭部に対して固定される。これにより、被験者2の顔に対する眼鏡撮影装置10の相対位置が固定される。
 ヘッドバンド14には、カメラ11、赤外光源12、およびダイクロイックミラー13が取り付けられている。眼鏡3を装用した被験者2の頭部にヘッドバンド14を装着すると、ダイクロイックミラー13が眼鏡3の前方に配置され、カメラ11および赤外光源12が眼鏡3の斜め上方に配置される。
 なお、図33(b)に示すように、カメラ11としては、眼鏡3の左目側周辺を撮像する左側カメラ11Lと、眼鏡3の右目側周辺を撮像する右側カメラ11Rとが設けられている。赤外光源12としては、眼鏡3の左目側周辺を照明する左側赤外光源12Lと、眼鏡3の右目側周辺を照明する右側赤外光源12Rとが設けられている。ダイクロイックミラー13としては、眼鏡3の左目側の前方に配置される左側ダイクロイックミラー13Lと、眼鏡3の右目側の前方に配置される右側ダイクロイックミラー13Rとが設けられている。
 ダイクロイックミラー13は、赤外光を反射し、可視光を透過する。ゆえに被験者2は、ヘッドバンド14を装着した状態であっても、眼鏡3およびダイクロイックミラー13を通して前方の視界を自由に見ることができる。
 赤外光源12から照射された赤外光は、ダイクロイックミラー13で反射されて眼鏡3を照明する。カメラ11は、ダイクロイックミラー13を介して、赤外光で照明された眼鏡3を連続的に撮像する。
 なお、被験者が装用する眼鏡3には、図34に示すように、左右の眼鏡レンズ3L,3Rのそれぞれに2箇所のマーク31L,32L,31R,32Rが予め付されている。したがって、左右の眼鏡レンズ3L,3Rと共にこれらのマーク31L,32L,31R,32Rがカメラ11によって撮像される。なお、これらのマーク31L,32L,31R,32Rは、被験者の視界の妨げにならない程度の大きさとなっている。
 カメラ11に連続的に撮像された眼鏡の画像は、コンピュータ20に入力される。コンピュータ20は、例えば、図35に示すように、眼鏡の左目側および右目側の撮像画像をそれぞれモニタ21に表示する。またコンピュータ20は、連続的に撮像された眼鏡の画像ごとに、画像の基準座標Oに対するマーク31L,32L,31R,32Rの位置を算出し、コンピュータ20内の記録装置(不図示)に記録していく。コンピュータ20は、このマーク31L,32L,31R,32Rの位置の変化量に基づいて、眼鏡の位置の変化量を求める。
 本実施形態では、眼鏡の位置の変化量として、眼鏡の平行移動量と前後方向を軸とする回転量とを演算する。この演算方法の一例を、図36を用いて説明する。図36(a)は、時刻t0における眼鏡の右目側の撮像画像を示し、図36(b)は、時刻tにおける眼鏡の右目側の撮像画像を示す。なお、これらの撮像画像には、実際は被験者の目や眼鏡のフレームも写っているが、図36では省略している。
 ここでは、時刻t0での眼鏡の装用状態を基準装用状態とする。時刻tでは、眼鏡の装用状態が基準装用状態から変化して眼鏡の位置が変化している。
 基準座標Oは、図36(a)および(b)に示すように、画像の左下隅に設定されているとする。画像のx方向は、図36の紙面左右方向であり、画像のy方向は、図36の紙面上下方向であるとする。マーク31Rおよびマーク32Rの時刻t0における座標は、それぞれ(x1(t0),y1(t0))、(x2(t0),y2(t0))であり、時刻tにおける座標は、それぞれ(x1(t),y1(t))、(x2(t),y2(t))であるとする。時刻t0から時刻tまでに、マーク31Rとマーク32Rとを結ぶ線分の中点Pが移動した量は、x方向、y方向においてそれぞれdx(t)、dy(t)であるとする。時刻t0におけるマーク31Rとマーク32Rとを結ぶ線分L(t0)と、時刻tにおけるマーク31Rとマーク32Rとを結ぶ線分L(t)とがなす角度は、θ(t)であるとする。
 ここで、時刻t0の基準装用状態に対する、時刻tにおける眼鏡の位置は、基準装用状態におけるマーク31Rおよびマーク32R間の中点P(t0)を中心に、眼鏡の前後方向を軸として角度θ(t)回転し、x方向にdx(t)、y方向にdy(t)平行移動したものとなる。すなわち、時刻t0から時刻tまでにおいて、眼鏡の前後方向を軸とする回転量は角度θ(t)であり、眼鏡の平行移動量はdx(t)、dy(t)である。
 角度θ(t)を算出するには、まず、線分L(t0)の傾きΔ(t0)と、線分L(t)の傾きΔ(t)とを、以下の式(1)および(2)により算出する。
Δ(t0) = (y2(t0) - y1(t0)) / (x2(t0) - x1(t0))  …(1)
Δ(t) = (y2(t) - y1(t)) / (x2(t) - x1(t))  …(2)
 そして、傾きΔ(t0),Δ(t)から、以下の式(3)により、角度θ(t)を算出する。
θ(t) = arctan(Δ(t)) -arctan(Δ(t0))  …(3)
 dx(t)、dy(t)は、以下の式(4)および(5)により算出する。
dx(t) = {(x1(t) + x2(t)) - (x1(t0) + x2(t0))} / 2 …(4)
dy(t) = {(y1(t) + y2(t)) - (y1(t0) + y2(t0))} / 2 …(5)
 なお、ここでは、眼鏡の右目側の撮像画像を用いて演算する場合について説明したが、眼鏡の左目側の撮像画像を用いて演算する場合も同様であるため説明を省略する。
 コンピュータ20は、このようにして眼鏡の位置の変化量(平行移動量dx(t),dy(t)および前後方向を軸とする回転量θ(t))を連続的に算出することで、被験者が動いている場合における、眼鏡の装用状態の変化を連続的に測定することができる。
 眼鏡装用状態測定システム1による測定結果は、例えば、被験者が装用している眼鏡のフレームが被験者にフィットしているか否かを検討する場合に用いることができる。この場合、眼鏡撮影装置10による撮影中、被験者には、眼鏡装用時を想定して自由に動いてもらう。例えば、ランニングの際に眼鏡を装用する被験者の場合には、眼鏡撮影装置10による撮影中にランニングをしてもらったりする。
 眼鏡装用状態測定システム1による測定の結果、眼鏡位置の変化量が大きい場合、被験者が動くことで眼鏡がずれてしまっており、被験者に眼鏡のフレームが合っていない可能性が高い。したがって、眼鏡位置の変化量が所定閾値以上であった場合には、鼻パッドを調整したり、眼鏡のフレームを変えたりすることなどが考えられる。
 また、眼鏡装用状態測定システム1による測定結果は、複数種類の眼鏡フレームの中から購入するフレームを選択する場合にも用いることができる。この場合、複数種類の眼鏡フレームにおいてそれぞれ眼鏡装用状態測定システム1による測定を行い、最も眼鏡位置の変化量が少なかったフレームを、購入するフレームとして選択することなどが考えられる。
 以上説明した実施形態によれば、次の作用効果が得られる。
 眼鏡装用状態測定システム1は、被験者2が装用する眼鏡3を連続的に撮像する眼鏡撮影装置10と、眼鏡撮影装置10により撮像された画像から、眼鏡3のレンズに付されたマーク31L,32L,31R,32Rを連続的に抽出するコンピュータ20と、抽出したマーク31L,32L,31R,32Rの位置の変化量を算出し、この変化量に基づいて、眼鏡3の位置の変化量を測定するコンピュータ20と、を備える。これにより、眼鏡3を装用した被験者2が動いている状態における、眼鏡3の装用状態の変化を測定することができる。すなわち、この変化量に基づき眼鏡レンズ又は眼鏡フレームが被験者に対して合っているかどうかの可否を判断することができる。また、この変化量として演算(測定)された平行移動量や回転量(測定量)により、眼鏡レンズ又は眼鏡フレームが被験者に対して合っているかどうかの可否を判断することができる。
 なお、上記コンピュータ20による処理は、コンピュータ20が所定のプログラムを実行することにより行われる。図42は、そのプログラムのフローチャートを示す図である。ステップS301において、コンピュータ20は、眼鏡撮影装置10のカメラ11により被験者2が装用する眼鏡3を連続的に撮像された画像を入力する。ステップS302において、コンピュータ20は、入力された画像から、眼鏡3のレンズに付されたマーク31L,32L,31R,32Rを連続的に抽出する。ステップS303において、コンピュータ20は、抽出したマーク31L,32L,31R,32Rの位置の変化量を算出し、この変化量に基づいて、眼鏡3の位置の変化量を測定する。
 コンピュータ20が実行するプログラムは、第1の実施の形態の図41と同様に、記録媒体やデータ信号などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として、コンピュータ20に供給することができる。
(変形例1)
 眼鏡位置の変化量を、眼鏡レンズに付された2箇所のマークと被験者の顔の一部の特徴点との相対的な位置関係から求めるようにしてもよい。この場合、眼鏡撮影装置10は、眼鏡と共に被験者の顔の一部を撮像するようにする。図37に、この場合の眼鏡撮影装置10による撮像画像の一例を示す。図37(a)は、時刻t0における右目側の撮像画像を示し、図37(b)は、時刻tにおける右目側の撮像画像を示す。ここでは、一例として、被験者の鼻2nの頂点を特徴点として設定した場合について説明する。コンピュータ20は、時刻t0および時刻tの撮像画像から、それぞれ、マーク31R,32Rを抽出すると共に、上記設定した特徴点を抽出し、当該特徴点の位置を基準座標Oとして、マーク31R,32Rの位置座標を算出する。そしてコンピュータ20は、上述した実施の形態と同様に、時刻tおよび時刻t0におけるマーク31R,32Rの位置座標から、眼鏡位置の回転量θ(t)および平行移動量dx(t),dy(t)を算出する。なお、ここでは、眼鏡の右目側の撮像画像を用いて演算する場合について説明したが、眼鏡の左目側の撮像画像を用いて演算する場合も同様であるため説明を省略する。
 変形例1によれば、被験者の顔に対する眼鏡の相対位置の変化量を求めることができるので、ヘッドバンド14が動いて、被験者の顔に対する眼鏡撮影装置10の相対位置がずれてしまった場合にも、その影響を受けることなく眼鏡位置の変化量を測定することができる。
(変形例2)
 上述した眼鏡撮影装置10に、さらに視線検出部を設けてもよい。図38は、変形例2における眼鏡撮影装置10Xの構成を示す図である。眼鏡撮影装置10Xは、上述した実施の形態における眼鏡撮影装置10の構成に加え、左目の視線を検出する左目視線検出部15Lと、右目の視線を検出する右目視線検出部15Rとを備える。なお、左目視線検出部15Lおよび右目視線検出部15Rとしては、公知の視線検出装置を用いることができる。例えば、赤外線で照明された眼球の画像を撮像し、眼球の画像に基づいて瞳孔中心の位置座標や角膜反射点の位置座標などの眼球運動データを算出し、眼球運動データに基づいて視線の方向を検出する視線検出装置などを用いることができる。このように眼鏡撮影装置10Xが視線検出部15を有することにより、眼鏡の位置の変化量を測定できると同時に、視線検出を行うことができる。
 また、図39は、被験者の視線が眼鏡レンズ3L,3Rを透過する点(透過点)33L,33Rを説明する図であり、眼鏡レンズ3L,3Rを上から見た様子を示している。図39(a)および(b)は、視線の方向は同じであるが、眼鏡レンズ3L,3Rの位置が異なる場合を示している。図39(a)および(b)に示すように、視線の方向は同じであっても、眼鏡レンズ3L,3Rの位置が異なれば、透過点33L,33Rの位置は異なる。また、眼鏡レンズ3L,3Rの位置は同じであっても、視線の方向が異なれば、透過点33L,33Rの位置は異なる。このように、透過点33L,33Rの位置は、眼鏡レンズ3L,3Rの位置および視線の方向によって決まるため、眼鏡レンズ3L,3Rの位置の変化量(すなわち眼鏡の位置の変化量)および視線の方向から、透過点33L,33Rの位置を求めることができる。
 そこで、変形例2の眼鏡装用状態測定システム1では、左目視線検出部15Lおよび右目視線検出部15R(まとめて視線検出部15とも呼ぶ)は、カメラ11による眼鏡画像の撮像中、視線の方向を連続的に検出して、検出結果をコンピュータ20に出力する。コンピュータ20は、視線検出部15により検出された視線の方向と、カメラ11による撮像画像に基づいて算出した眼鏡の位置の変化量とに基づいて、透過点33L,33Rの位置を連続的に算出する。なお、透過点33L,33Rとしては、眼鏡レンズ3L,3Rの表面および裏面の両方の位置を求めてもよいし、いずれか一方の位置を求めてもよい。
 この眼鏡装用状態測定システム1による透過点の測定結果は、例えば、累進眼鏡レンズの設計や選択の際に用いることができる。累進眼鏡レンズには、遠方を見るための遠用領域と、近方を見るための近用領域と、これらの領域の間を結ぶ累進領域とが設定されている。例えば、累進眼鏡レンズを装用した被験者が遠方を見た状態で、眼鏡撮影装置10Xによる撮影を行い、透過点の位置を測定したとする。この場合、透過点の位置における度数が遠用領域における所定度数から外れた場合、被験者が装用している累進眼鏡レンズが被験者に適していないと判断することができる。また累進眼鏡レンズを装用した被験者が近方を見た状態で、眼鏡撮影装置10Xによる撮影を行い、透過点の位置を測定したとする。この場合、透過点の位置における度数が近用領域における所定度数から外れた場合、被験者が装用している累進眼鏡レンズが被験者に適していないと判断することができる。このように累進眼鏡レンズが被験者に適していないと判断された場合、別の累進眼鏡レンズを選択したり、累進眼鏡レンズの設計を変更したりすることなどが考えられる。
 また、左目視線検出部15Lおよび右目視線検出部15Rによる視線検出のキャリブレーションを、同一眼鏡の異なる複数の装用状態のそれぞれに対して行うようにしてもよい。例えば、基準となる眼鏡装用状態でキャリブレーションを行った後、基準となる眼鏡装用状態から眼鏡の位置をずらした装用状態でキャリブレーションを行う。各キャリブレーションの結果は、それぞれに対応する装用状態における眼鏡レンズのマークの位置に対応付けて、コンピュータ20内の記憶装置に記憶させておく。なお、キャリブレーションでは、被験者に特定の位置の点を数か所注視させ、その各点に対応する視線方向を検出する。
 実際の測定時において、コンピュータ20は、眼鏡撮影装置10による撮影画像から求めた眼鏡レンズのマークの位置に基づいて、記憶装置に記憶された複数の装用状態におけるキャリブレーション結果の中から、眼鏡レンズのマークの位置が最も近いキャリブレーションの結果を選択する。これにより、測定時の眼鏡装用状態に最も近い眼鏡装用状態でのキャリブレーションの結果を選択することができる。そしてコンピュータ20は、選択したキャリブレーションの結果に基づいて、左目視線検出部15Lおよび右目視線検出部15Rにより検出された視線の方向を補正する。
 このように同一眼鏡の異なる複数の装用状態においてそれぞれ視線検出のキャリブレーションを行うことにより、視線方向の検出精度を高めることができるので、視線検出結果を用いて行う眼鏡レンズ上における視線の透過点の算出精度も高めることができる。
(変形例3)
 上述した実施の形態では、左右の眼鏡レンズのそれぞれに付した2箇所のマークを用いて眼鏡の変化量を算出する例について説明したが、マークの数は2箇所に限らなくてもよい。
 例えば、眼鏡レンズに、回転量が求まる形状(すなわち回転対称ではない形状)を有するマークを1箇所付して、この1箇所のマークの平行移動量および回転量から、眼鏡位置の平行移動量および回転量を算出するようにしてもよい。また例えば、回転対称であるマークを付す場合には、左右の眼鏡レンズにそれぞれ1箇所ずつマークを付して、これらのマークの移動量および左右の眼鏡レンズ間の距離から、眼鏡位置の平行移動量および回転量を算出するようにしてもよい。すなわち、回転対称であるマークを付す場合には、左右の眼鏡レンズで合わせて(すなわち眼鏡の一対のレンズにおいて)少なくとも2箇所以上のマークを伏すようにすればよい。
 また、左右の眼鏡レンズのそれぞれに3箇所のマークを伏すようにしてもよい。図40は、この場合における眼鏡の撮像画像の一例を示す図である。図40(a)は、時刻t0における眼鏡の右目側の撮像画像を示し、図40(b)は、時刻tにおける眼鏡の右目側の撮像画像を示す。時刻t0から時刻tまでの間に眼鏡がx軸(左右方向)を回転軸として傾いた場合、図40に示すように、時刻tにおけるマーク34R~36Rを結んだ三角形のy方向の高さが時刻t0と比べて短くなっている。したがって、コンピュータ20は、このマーク34R~36Rを結んだ三角形の変形量に基づいて、眼鏡のx軸(左右方向)を軸とする回転量(チルト方向の回転量)を算出することができる。同様にして、コンピュータ20は、眼鏡のy軸(上下方向)を軸とする回転量も算出することができる。なお、眼鏡の平行移動量および前後方向を軸とする回転量は、上述した実施の形態と同様に、マーク34R~36Rの位置の変化量から算出することができる。また、ここでは、眼鏡の右目側の撮像画像を用いて演算する場合について説明したが、眼鏡の左目側の撮像画像を用いて演算する場合も同様であるため説明を省略する。
 このように眼鏡レンズに3箇所のマークを伏した場合には、眼鏡の平行移動量および前後方向を軸とする回転量に加え、左右方向および上下方向を軸とする回転量を算出することができる。なお、この場合、コンピュータ20は、左右方向を軸とする回転量および上下方向を軸とする回転量の両方を算出するようにしてもよいし、いずれか一方を算出するようにしてもよい。また、この場合、マークの個数は3箇所に限らなくてよく、左右の眼鏡レンズで合わせて(すなわち眼鏡の一対のレンズにおいて)少なくとも3箇所設ければよい。
 また、眼鏡の左右方向または上下方向の回転量を求めるためには、マークが小さな点である場合少なくとも3箇所必要であるが、眼鏡の左右方向または上下方向の回転量が求まる形状(例えば三角形など)のマークであれば、1箇所であってもよい。ただし、マークの大きさは小さい方が被験者の視界を妨げないため好ましい。
(変形例4)
 上述した実施の形態では、眼鏡位置の変化量を求めるためのマークを眼鏡レンズに付した例について説明したが、眼鏡のフレームに付しておくようにしてもよい。
 また、眼鏡のレンズまたはフレームに付されたマークではなく、眼鏡のレンズまたはフレームの輪郭に基づいて、眼鏡位置の変化量を算出するようにしてもよい。この場合、予め、基準となる眼鏡装用状態における眼鏡の画像を撮影しておく。コンピュータ20は、この撮影画像から眼鏡のレンズまたはフレームの輪郭を抽出し、抽出した眼鏡レンズまたはフレームの輪郭データをコンピュータ20内の記憶装置に記憶しておく。そして実際の測定の際には、コンピュータ20は、予め記憶装置に記憶された輪郭データに基づいて、眼鏡のレンズまたはフレームの輪郭の位置の変化量(平行移動量や回転量)を算出し、この変化量に基づいて、上述した実施の形態と同様に、眼鏡の位置の変化量を算出する。
(変形例5)
 上述した実施の形態では、眼鏡撮影装置10を被験者の頭部に固定する例について説明したが、この他の方法で、被験者の顔に対する眼鏡撮影装置10の相対位置を固定しておくようにしてもよい。
(変形例6)
 上述した実施の形態では、眼鏡レンズに付された2箇所のマークの位置の変化量に基づいて、眼鏡の平行移動量および前後方向を軸とする回転量の両方を算出する例について説明した。しかしながら、眼鏡レンズに付された2箇所のマークの位置の変化量に基づいて、眼鏡の平行移動量および前後方向を軸とする回転量のいずれか一方を算出するようにしてもよい。
 以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、上記実施形態に各変形例の構成を適宜組み合わせてもかまわない。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2012年第205453号(2012年9月19日出願)
 日本国特許出願2012年第206295号(2012年9月19日出願)
1…眼鏡装用状態測定システム、2…被験者、3…眼鏡、10,10X…眼鏡撮影装置、11…カメラ、12…赤外光源、13…ダイクロイックミラー、15…視線検出部、20…コンピュータ、CONT…制御装置、PR…処理部、CM…通信部、MR…記憶部、100、101…視線検出装置、L、16…眼鏡レンズ、200…視線情報補正装置、201…本体部、202…入力部、203…出力部、301…通信回線、302…コンピュータ、303…ハードディスク、304…CD-ROM、400…視線情報補正システム

Claims (50)

  1.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報が入力される入力部と、
     前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算部とを備える視線情報補正装置。
  2.  請求項1に記載の視線情報補正装置において、
     前記光学情報を記憶する記憶部を更に備える視線情報補正装置。
  3.  請求項1又は請求項2に記載の視線情報補正装置において、
     前記光学情報を受信する受信部を更に備える視線情報補正装置。
  4.  請求項1から請求項3のうちいずれか一項に記載の視線情報補正装置において、
     前記演算部で補正された前記視線情報を出力する出力部を更に備える視線情報補正装置。
  5.  請求項1から請求項4のうちいずれか一項に記載の視線情報補正装置において、
     前記光学器具は、眼鏡レンズである視線情報補正装置。
  6.  請求項1から請求項5のうちいずれか一項に記載の視線情報補正装置において、
     前記光学器具に対して予め行った光線追跡結果を保存する記憶部と
     前記記憶部に保存された前記光線追跡結果の中から前記視線情報に近い光線追跡結果を検索する検索部を更に備える視線情報補正装置。
  7.  請求項6に記載の視線情報補正装置において、
     前記光線追跡検索結果から前記視線情報に近い光線を補間する補間部を更に備える視線情報補正装置。
  8.  請求項1から請求項7のうちいずれか一項に記載の視線情報補正装置において、
     前記演算部において補正する際に、被験者の注視点座標情報を更に用いる視線情報補正装置。
  9.  請求項8に記載の視線情報補正装置において、
     前記演算部において補正する際に、注視点までの距離情報を更に用いる視線情報補正装置。
  10.  請求項1から請求項9のうちいずれか一項に記載の視線情報補正装置において、
     前記演算部において補正する際に、視野撮影部の歪み情報を更に用いる視線情報補正装置。
  11.  請求項1から請求項10のうちいずれか一項に記載の視線情報補正装置において、
     前記被験者と前記光学器具と前記被験者の視線情報を提供する視線検出装置の少なくとも二つの相対位置情報を検出する相対位置検出部を更に備え、
     前記演算部において補正する際に、前記相対位置情報を更に用いる視線情報補正装置。
  12.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を入力する入力ステップと、
     前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算ステップとを含む視線情報補正方法。
  13.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を検出する検出部と、
     前記光学器具での前記光の屈折に関する光学情報を用いて、前記検出部によって検出された前記視線情報を補正する演算部とを備える視線情報検出装置。
  14.  請求項13に記載の視線情報検出装置において、
     前記検出部が、前記被験者の眼球部を測定する眼球撮影部と、眼球撮影部から視線情報を算出する視線情報算出部を備える視線情報検出装置。
  15.  請求項13または請求項14に記載の視線情報検出装置において、
     前記被験者の視野を撮影する視野撮影部と
     前記視野撮影部によって撮影される撮影画像に含まれるゆがみを補正するゆがみ補正部をさらに備える視線情報検出装置。
  16.  請求項13から請求項15のうちいずれか一項に記載の視線情報検出装置において、
     前記被験者の装用する眼鏡レンズの水平方向の幅をD(mm)とし、前記装用者の角膜頂点間距離をD1(mm)、前記装用者の角膜頂点から回旋点までの距離をD2(mm)としたときに、
     前記視野撮影部の全画角が
     atan(D/(2×(D1+D2)))×2
     以上である視線情報検出装置。
  17.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて視線情報を検出する検出ステップと、
     前記光学器具での前記光の屈折に関する光学情報を用いて、検出された前記視線情報を補正する演算ステップとを含む視線情報検出方法。
  18.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップとを含む眼鏡レンズの設計方法。
  19.  請求項18に記載の眼鏡レンズの設計方法において、
     前記設計ステップは、
     補正された前記視線情報と、前記光学器具における位置情報とを用いて、前記被験者の視線と前記光学器具との交点群を求めることと、
     求めた前記交点群に基づいて、前記眼鏡レンズの前記収差分布及び前記レンズ面形状のうち少なくとも一方を決定することと、を含む眼鏡レンズの設計方法。
  20.  請求項19に記載の眼鏡レンズの設計方法において、
     前記設計ステップは、
     求めた前記交点群に基づいて、前記眼鏡レンズ上に所定の視線領域を求めることと、
     前記交点群と前記視線領域とを用いて、前記収差分布及び前記レンズ面形状のうち少なくとも一方を決定することと、を含む眼鏡レンズの設計方法。
  21.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップと、
     決定結果に応じて前記眼鏡レンズを加工する加工ステップと、を含む眼鏡レンズの製造方法。
  22.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて前記被験者の視線情報を検出する検出部と、
     前記光学器具での前記光の屈折に関する光学情報を用いて、前記検出部で検出された前記視線情報を補正する演算部と、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択部とを備える眼鏡レンズ選択装置。
  23.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択ステップとを含む眼鏡レンズ選択方法。
  24.  請求項1から請求項11のうちいずれか一項に記載の視線情報補正装置、又は、請求項13から請求項16のうちいずれか一項に記載の視線情報検出装置を備える視線追跡結果評価装置。
  25.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正し、補正された前記視線情報である補正視線情報を得ることと、
     前記補正視線情報と前記被験者の装着した前記光学器具との交点である補正交点群を求めることと、
     前記補正交点群又は前記補正交点群に基づく視線エリアを前記被験者の視性能として通知することとを含む視性能通知方法。
  26.  光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正し、補正された前記視線情報である補正視線情報を得ることと、
     前記補正視線情報から求められた累進帯長を前記被験者の視性能として通知することとを含む視性能通知方法。
  27.  コンピュータに、
     光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を入力する入力ステップと、
     前記光学器具での前記光の屈折に関する光学情報を用いて、前記入力部に入力された前記視線情報を補正する演算ステップとを実行させるプログラム。
  28.  コンピュータに、
     光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて視線情報を検出する検出ステップと、
     前記光学器具での前記光の屈折に関する光学情報を用いて、検出された前記視線情報を補正する演算ステップとを実行させるプログラム。
  29.  コンピュータに、
     光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップとを実行させるプログラム。
  30.  コンピュータに、
     光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、前記被験者が装用する眼鏡レンズの収差分布及びレンズ面形状のうち少なくとも一方を決定する設計ステップと、
     決定結果に応じて所定の加工装置に前記眼鏡レンズを加工させる加工ステップとを実行させるプログラム。
  31.  コンピュータに、
     光を屈折させて眼球に入射させる光学器具を装着した被験者の前記眼球の状態に基づいて求められた視線情報を、前記光学器具での前記光の屈折に関する光学情報を用いて補正する補正ステップと、
     補正された前記視線情報と、前記光学器具における位置情報及び前記光学情報とに基づいて、収差分布及びレンズ面形状の異なる複数の眼鏡レンズ群の中から前記被験者が装用する眼鏡レンズを選択する選択ステップとを実行させるプログラム。
  32.  請求項27から請求項31のうちいずれか一項に記載のプログラムが記録されたコンピュータ読み取り可能な記録媒体。
  33.  所定の収差分布を有する眼鏡レンズであって、
     前記収差分布は、光を屈折させて眼球に入射させる光学器具を装着した被験者の視性能を示すように形成されており、
     前記視性能は、前記光学器具を装着した前記被験者の前記眼球の状態に基づいて求められた視線情報を前記光学器具での前記光の屈折に関する光学情報を用いて補正して得られる補正視線情報と、前記被験者の装着した前記光学器具との交点である補正交点群又は当該補正交点群に基づく視線エリアである眼鏡レンズ。
  34.  所定の収差分布を有する眼鏡レンズであって、
     前記収差分布は、光を屈折させて眼球に入射させる光学器具を装着した被験者の視性能を示すように形成されており、
     前記視性能は、前記光学器具を装着した前記被験者の前記眼球の状態に基づいて求められた視線情報を前記光学器具での前記光の屈折に関する光学情報を用いて補正して得られる補正視線情報から求められた累進帯長である眼鏡レンズ。
  35.  被験者が装用する眼鏡を連続的に撮像する撮像部と、
     前記撮像部により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭を連続的に抽出する抽出部と、
     前記抽出部により抽出された前記マークまたは前記輪郭の位置の変化量を算出し、この変化量に基づいて、前記眼鏡の位置の変化量を測定する変化量測定部とを備える測定システム。
  36.  請求項35に記載の測定システムにおいて、
     前記撮像部は、前記被験者の顔に対する相対位置が固定されている測定システム。
  37.  請求項35または36に記載の測定システムにおいて、
     前記眼鏡の一対のレンズあるいはフレームには、少なくとも2箇所のマークが付されており、
     前記変化量測定部は、前記少なくとも2箇所のマークの位置の変化量に基づいて、前記眼鏡の平行移動量および前後方向を軸とする回転量の少なくとも一方を測定する測定システム。
  38.  請求項35~37のいずれか一項に記載の測定システムにおいて、
     前記被験者の視線の方向を検出する視線検出部をさらに備える測定システム。
  39.  請求項38に記載の測定システムにおいて、
     前記変化量測定部により測定された前記眼鏡の位置の変化量と、前記視線検出部により検出された前記被験者の視線の方向とに基づいて、前記眼鏡のレンズにおいて前記被験者の視線が透過する透過点の位置を検出する透過点検出部をさらに備える測定システム。
  40.  請求項38または39に記載の測定システムにおいて、
     同一眼鏡の異なる複数の装用状態のそれぞれに対して、前記視線検出部のキャリブレーションを行うキャリブレーション部と、
     前記透過点検出部は、前記キャリブレーション部により行われた複数の装用状態のキャリブレーションの結果の中から、前記変化量測定部により測定された前記眼鏡の位置の変化量に対応する装用状態で行われたキャリブレーションの結果を選択し、当該選択したキャリブレーションの結果に基づいて、前記視線検出部により検出された前記被験者の視線の方向を補正する補正部と、
     をさらに備える測定システム。
  41.  請求項35~40のいずれか一項に記載の測定システムにおいて、
     前記撮像部は、前記被験者の眼鏡および顔の一部を連続的に撮像し、
     前記抽出部は、前記撮像部により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭と、前記顔の一部の特徴点とを連続的に抽出し、
     前記変化量測定部は、前記抽出部により抽出された前記特徴点に対する前記マークまたは前記輪郭の相対位置の変化量を算出し、この変化量に基づいて、前記顔の一部に対する前記眼鏡の相対位置の変化量を測定する測定システム。
  42.  請求項35~41のいずれか一項に記載の測定システムにおいて、
     前記眼鏡の一対のレンズあるいはフレームには、少なくとも3箇所のマークが付されており、
     前記変化量測定部は、前記少なくとも3箇所マークの位置の変化量に基づいて、前記眼鏡の左右方向および上下方向の少なくとも一方を軸とする回転量を測定する測定システム。
  43.  被験者が装用する眼鏡を連続的に撮像する撮像工程と、
     前記撮像工程により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭を連続的に抽出する抽出工程と、
     前記抽出工程により抽出された前記マークまたは前記輪郭の位置の変化量を算出し、この変化量に基づいて、前記眼鏡の位置の変化量を測定する変化量測定工程と、を備える測定方法。
  44.  請求項43に記載の測定方法において、
     前記撮像工程では、前記被験者の顔に対する相対位置が固定されている撮像部により、被験者が装用する眼鏡を連続的に撮像する測定方法。
  45.  請求項43または44に記載の測定方法において、
     前記眼鏡の一対のレンズあるいはフレームには、少なくとも2箇所のマークが付されており、
     前記変化量測定工程では、前記少なくとも2箇所のマークの位置の変化量に基づいて、前記眼鏡の平行移動量および前後方向を軸とする回転量の少なくとも一方を測定する測定方法。
  46.  請求項43~45のいずれか一項に記載の測定方法において、
     前記被験者の視線の方向を検出する視線検出工程をさらに備える測定方法。
  47.  請求項46に記載の測定方法において、
     前記変化量測定工程により測定された前記眼鏡の位置の変化量と、前記視線検出工程により検出された前記被験者の視線の方向とに基づいて、前記眼鏡のレンズにおいて前記被験者の視線が透過する透過点の位置を検出する透過点検出工程をさらに備える測定方法。
  48.  請求項46または47に記載の測定方法において、
     同一眼鏡の異なる複数の装用状態のそれぞれに対して、前記視線検出工程における視線検出のキャリブレーションを行うキャリブレーション工程と、
     前記透過点検出工程では、前記キャリブレーション工程により行われた複数の装用状態のキャリブレーションの結果の中から、前記変化量測定工程により測定された前記眼鏡の位置の変化量に対応する装用状態で行われたキャリブレーションの結果を選択し、当該選択したキャリブレーションの結果に基づいて、前記視線検出工程により検出された前記被験者の視線の方向を補正する補正工程と、をさらに備える測定方法。
  49.  請求項43~48のいずれか一項に記載の測定方法において、
     前記撮像工程では、前記被験者の眼鏡および顔の一部を連続的に撮像し、
     前記抽出工程では、前記撮像工程により撮像された画像から、前記眼鏡のレンズあるいはフレームに付されたマーク、または前記眼鏡のレンズあるいはフレームの輪郭と、前記顔の一部の特徴点とを連続的に抽出し、
     前記変化量測定工程では、前記抽出工程により抽出された前記特徴点に対する前記マークまたは前記輪郭の相対位置の変化量を算出し、この変化量に基づいて、前記顔の一部に対する前記眼鏡の相対位置の変化量を測定する測定方法。
  50.  請求項43~49のいずれか一項に記載の測定方法において、
     前記眼鏡の一対のレンズあるいはフレームには、少なくとも3箇所のマークが付されており、
     前記変化量測定工程では、前記少なくとも3箇所マークの位置の変化量に基づいて、前記眼鏡の左右方向および上下方向の少なくとも一方を軸とする回転量を測定する測定方法。
PCT/JP2013/075356 2012-09-19 2013-09-19 視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法 WO2014046207A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13839259.2A EP2899584B1 (en) 2012-09-19 2013-09-19 Spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection method, measuring system and measuring method
JP2014536918A JP6020577B2 (ja) 2012-09-19 2013-09-19 測定システム、測定方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法
US14/661,498 US20150293381A1 (en) 2012-09-19 2015-03-18 Line of sight information correction device, line of sight information correction method, line of sight information detection device, line of sight information detection method, spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, spectacle lens selection method, line of sight tracking result evaluation device, visual ability notification method, program, recording medium, spectacle lens, measuring system and measurng method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012205453 2012-09-19
JP2012-206295 2012-09-19
JP2012206295 2012-09-19
JP2012-205453 2012-09-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/661,498 Continuation US20150293381A1 (en) 2012-09-19 2015-03-18 Line of sight information correction device, line of sight information correction method, line of sight information detection device, line of sight information detection method, spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, spectacle lens selection method, line of sight tracking result evaluation device, visual ability notification method, program, recording medium, spectacle lens, measuring system and measurng method

Publications (1)

Publication Number Publication Date
WO2014046207A1 true WO2014046207A1 (ja) 2014-03-27

Family

ID=50341511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/075356 WO2014046207A1 (ja) 2012-09-19 2013-09-19 視線情報補正装置、視線情報補正方法、視線情報検出装置、視線情報検出方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置、眼鏡レンズ選択方法、視線追跡結果評価装置、視性能通知方法、プログラム、記録媒体、眼鏡レンズ、測定システム、および、測定方法

Country Status (4)

Country Link
US (1) US20150293381A1 (ja)
EP (1) EP2899584B1 (ja)
JP (2) JP6020577B2 (ja)
WO (1) WO2014046207A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020503556A (ja) * 2016-12-30 2020-01-30 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡レンズを設計するための方法、レンズ、およびレンズを設計するための装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015204283A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person
WO2018158813A1 (ja) * 2017-02-28 2018-09-07 三菱電機株式会社 エレベーターの呼び登録システム
US10890785B2 (en) * 2017-05-25 2021-01-12 Jeffrey J. Browen Eyeglass translating clip
US20210019493A1 (en) * 2018-03-29 2021-01-21 Sony Corporation Information processing apparatus, information processing method, and program
CN108921097B (zh) * 2018-07-03 2022-08-23 深圳市未来感知科技有限公司 人眼视角检测方法、装置及计算机可读存储介质
WO2022237954A1 (en) * 2021-05-10 2022-11-17 Viewpointsystem Gmbh Eye tracking module wearable by a human being

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100147A (ja) * 1991-10-04 1993-04-23 Nikon Corp 視線検出装置を有するカメラ
JPH0653107A (ja) 1992-07-28 1994-02-25 Toshiba Corp 半導体装置の製造方法
JPH08563A (ja) * 1994-06-15 1996-01-09 Canon Inc 光学装置及びカメラ
JPH0847481A (ja) * 1994-05-03 1996-02-20 Essilor Internatl (Cie Gen Opt) 光学測定方法
JPH1066678A (ja) 1996-08-28 1998-03-10 Nippon Telegr & Teleph Corp <Ntt> 非接触視線測定装置
JPH11353353A (ja) * 1998-06-03 1999-12-24 Fine System Kikaku Kk 眼鏡の選択サポートシステム
JP2003131176A (ja) * 2001-10-26 2003-05-08 Pentax Corp 印刷マークレイアウトを有する内面累進屈折力レンズ
JP2005135202A (ja) * 2003-10-31 2005-05-26 Nidek Co Ltd 眼鏡フレーム選択装置
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2007232753A (ja) * 2006-02-27 2007-09-13 Eyemetrics Japan Co Ltd 眼鏡仕様設定装置及び視野検出装置
JP2007289683A (ja) * 2006-03-31 2007-11-08 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定方法、眼鏡レンズの製造方法、及び眼鏡の製造方法
JP2008212718A (ja) * 2008-05-15 2008-09-18 Eyemetrics Japan Co Ltd 視野検出装置
JP2010259605A (ja) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> 視線測定装置および視線測定プログラム
JP2010266892A (ja) 2004-03-26 2010-11-25 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
JP2011138064A (ja) * 2009-12-29 2011-07-14 Seiko Epson Corp 視線移動量測定方法および視線移動量測定治具
JP2012022288A (ja) * 2010-03-10 2012-02-02 Seiko Epson Corp 累進屈折力レンズの設計方法、累進屈折力レンズ設計システム、および累進屈折力レンズ

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62176427A (ja) * 1986-01-30 1987-08-03 日本電気株式会社 注視点位置計測装置
JPH08280628A (ja) * 1995-04-20 1996-10-29 Canon Inc 視線検出機能を備えた電子機器
JPH10271349A (ja) * 1997-03-27 1998-10-09 Sharp Corp カラー画像処理装置
JPH10323492A (ja) * 1997-05-26 1998-12-08 Toshiba Corp 洗濯機
JP3412606B2 (ja) * 2000-08-04 2003-06-03 株式会社島津製作所 レーザ回折・散乱式粒度分布測定装置
US6682195B2 (en) * 2001-10-25 2004-01-27 Ophthonix, Inc. Custom eyeglass manufacturing method
US7434931B2 (en) * 2001-10-25 2008-10-14 Ophthonix Custom eyeglass manufacturing method
JP4536329B2 (ja) * 2002-03-04 2010-09-01 東海光学株式会社 アイポイントの位置決定方法及びアイポイント測定システム
JP3735842B2 (ja) * 2002-05-28 2006-01-18 Hoya株式会社 眼光学系のシミュレーション装置を駆動するためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7090348B2 (en) * 2003-10-28 2006-08-15 Essilor International (Compagnie Generale D'optique) Method for designing spectacle lenses taking into account an individual's head and eye movement
JP4225205B2 (ja) * 2004-01-19 2009-02-18 セイコーエプソン株式会社 設計データの生成システム、設計データの生成方法、記録媒体及びプログラム
JP2005313548A (ja) * 2004-04-30 2005-11-10 Hoya Corp 眼鏡レンズへのマーキング方法及びシステム、並びに眼鏡レンズ
WO2006001409A1 (ja) * 2004-06-29 2006-01-05 Hoya Corporation 眼鏡レンズの製造方法
DE102005003699B4 (de) * 2005-01-26 2018-07-05 Rodenstock Gmbh Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt
JP4909587B2 (ja) * 2005-12-28 2012-04-04 Necディスプレイソリューションズ株式会社 画像表示装置
EP1862110A1 (en) * 2006-05-29 2007-12-05 Essilor International (Compagnie Generale D'optique) Method for optimizing eyeglass lenses
JP2008012223A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP4677399B2 (ja) * 2006-12-29 2011-04-27 株式会社ナナオ 液晶表示装置、液晶表示装置の特性量測定装置、特性量測定方法及びコンピュータプログラム
US8077915B2 (en) * 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
DE102008003906B4 (de) * 2008-01-10 2009-11-26 Rodenstock Gmbh Verwendung eines Fixationstargets und Vorrichtung
DE102008017592A1 (de) * 2008-04-07 2009-10-08 Carl Zeiss Meditec Ag Ophthalmologisches Implantat, Mikroskopiesystem und optisches Nachweisverfahren zur Detektion und/oder Identifikation eines ophthalmologischen Implantats
JP5648299B2 (ja) * 2010-03-16 2015-01-07 株式会社ニコン 眼鏡販売システム、レンズ企業端末、フレーム企業端末、眼鏡販売方法、および眼鏡販売プログラム
FR2965364B1 (fr) * 2010-09-23 2013-07-05 Acep France Methode de selection de lentilles ophtalmiques progressives
JP5707083B2 (ja) * 2010-10-08 2015-04-22 株式会社ニコン・エシロール 累進屈折力レンズの設計システム及び設計方法
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100147A (ja) * 1991-10-04 1993-04-23 Nikon Corp 視線検出装置を有するカメラ
JPH0653107A (ja) 1992-07-28 1994-02-25 Toshiba Corp 半導体装置の製造方法
JPH0847481A (ja) * 1994-05-03 1996-02-20 Essilor Internatl (Cie Gen Opt) 光学測定方法
JPH08563A (ja) * 1994-06-15 1996-01-09 Canon Inc 光学装置及びカメラ
JPH1066678A (ja) 1996-08-28 1998-03-10 Nippon Telegr & Teleph Corp <Ntt> 非接触視線測定装置
JPH11353353A (ja) * 1998-06-03 1999-12-24 Fine System Kikaku Kk 眼鏡の選択サポートシステム
JP2003131176A (ja) * 2001-10-26 2003-05-08 Pentax Corp 印刷マークレイアウトを有する内面累進屈折力レンズ
JP2005135202A (ja) * 2003-10-31 2005-05-26 Nidek Co Ltd 眼鏡フレーム選択装置
JP2010266892A (ja) 2004-03-26 2010-11-25 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2007232753A (ja) * 2006-02-27 2007-09-13 Eyemetrics Japan Co Ltd 眼鏡仕様設定装置及び視野検出装置
JP2007289683A (ja) * 2006-03-31 2007-11-08 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定方法、眼鏡レンズの製造方法、及び眼鏡の製造方法
JP2008212718A (ja) * 2008-05-15 2008-09-18 Eyemetrics Japan Co Ltd 視野検出装置
JP2010259605A (ja) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> 視線測定装置および視線測定プログラム
JP2011138064A (ja) * 2009-12-29 2011-07-14 Seiko Epson Corp 視線移動量測定方法および視線移動量測定治具
JP2012022288A (ja) * 2010-03-10 2012-02-02 Seiko Epson Corp 累進屈折力レンズの設計方法、累進屈折力レンズ設計システム、および累進屈折力レンズ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOURNAL OF THE EYE, vol. 24, no. 9, 2007

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020503556A (ja) * 2016-12-30 2020-01-30 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡レンズを設計するための方法、レンズ、およびレンズを設計するための装置
JP7258756B2 (ja) 2016-12-30 2023-04-17 ホヤ レンズ タイランド リミテッド 眼鏡レンズを設計するための方法、レンズ、およびレンズを設計するための装置

Also Published As

Publication number Publication date
JP2017037330A (ja) 2017-02-16
EP2899584A4 (en) 2016-05-11
JP6020577B2 (ja) 2016-11-02
EP2899584B1 (en) 2020-03-11
JPWO2014046207A1 (ja) 2016-08-18
JP6332392B2 (ja) 2018-05-30
EP2899584A1 (en) 2015-07-29
US20150293381A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
JP6020577B2 (ja) 測定システム、測定方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法
JP4942661B2 (ja) 個人の頭及び眼の動きを考慮した眼鏡レンズの設計方法
US7090348B2 (en) Method for designing spectacle lenses taking into account an individual&#39;s head and eye movement
CN103605208A (zh) 内容投射系统及方法
JP6049750B2 (ja) 眼鏡レンズの輝度依存調整
KR102290238B1 (ko) 누진 눈 렌즈에 대한 적어도 하나의 광학 설계 파라미터를 결정하기 위한 방법
JP2020079948A (ja) 光学パラメータを決定するための装置および方法
JP5351691B2 (ja) 眼球下転量測定装置及び眼球下転量測定方法
JP7126031B2 (ja) 眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法及びデバイス
JP6220627B2 (ja) 計測方法、眼鏡レンズ選択方法、眼鏡レンズ設計方法、眼鏡レンズ製造方法および計測装置
JP6519099B2 (ja) 視線検出方法、視線検出装置、眼鏡レンズ設計方法および眼鏡レンズ製造方法
JP2002045336A (ja) 眼光学系のシミュレーション方法及び装置
CN113692551B (zh) 用于确定在自然视觉姿势下人的头部的经定向的3d表示的方法
JP4795017B2 (ja) 眼鏡レンズ評価装置
US11747654B2 (en) Computer-implemented method for generating data in order to produce at least one spectacle lens, and method for producing a pair of spectacles
CN113795785A (zh) 用于确定要放置在镜架中以用于受试者的视力矫正的渐变镜片的至少光学特征的方法和装置
JP2011048327A (ja) 眼鏡レンズ選択方法及び眼鏡レンズ選択システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13839259

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014536918

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013839259

Country of ref document: EP