WO2021065247A1 - 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム - Google Patents

両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム Download PDF

Info

Publication number
WO2021065247A1
WO2021065247A1 PCT/JP2020/031783 JP2020031783W WO2021065247A1 WO 2021065247 A1 WO2021065247 A1 WO 2021065247A1 JP 2020031783 W JP2020031783 W JP 2020031783W WO 2021065247 A1 WO2021065247 A1 WO 2021065247A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
binocular vision
vision function
right eye
measured
Prior art date
Application number
PCT/JP2020/031783
Other languages
English (en)
French (fr)
Inventor
伊藤 歩
寿明 曽根原
渚 石原
英一郎 山口
Original Assignee
ホヤ レンズ タイランド リミテッド
伊藤 歩
寿明 曽根原
渚 石原
英一郎 山口
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホヤ レンズ タイランド リミテッド, 伊藤 歩, 寿明 曽根原, 渚 石原, 英一郎 山口 filed Critical ホヤ レンズ タイランド リミテッド
Priority to US17/624,823 priority Critical patent/US20220257110A1/en
Priority to EP20870601.0A priority patent/EP4039170A4/en
Priority to JP2021550420A priority patent/JP7194842B2/ja
Priority to CN202080058553.6A priority patent/CN114302668A/zh
Publication of WO2021065247A1 publication Critical patent/WO2021065247A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/025Methods of designing ophthalmic lenses considering parameters of the viewed object

Definitions

  • the present invention relates to a binocular vision function measuring method, a binocular vision function measuring program, a spectacle lens design method, a spectacle lens manufacturing method, and a binocular vision function measuring system.
  • binocular vision function tests may be performed to measure, for example, divergence, divergence range, etc. There are individual differences in the range of convergence and divergence, and measuring these is very important in designing spectacle lenses in order to understand the function of the eye in near vision.
  • Patent Document 1 discloses that the binocular vision function is measured by detecting the timing at which the image cannot be fused.
  • the binocular vision function measuring method disclosed in Patent Document 1 the binocular vision function is measured by using a stationary three-dimensional compatible video monitor. Therefore, the position of the head of the person to be measured is not fixed with respect to the left and right parallax images, and an error may occur with respect to the median plane depending on the direction of the head during measurement.
  • the stationary 3D video monitor in the real environment, the person to be measured simultaneously acquires information (real space information) that gives a sense of depth and perspective from the outside world in addition to the displayed parallax information. , There is a possibility of divergence / divergence in conjunction with normal adjustment.
  • a stationary three-dimensional video monitor is used, the required system configuration becomes large-scale, and it cannot be said that the measurement of the binocular vision function can be easily performed.
  • An object of the present invention is to provide a technique capable of performing the binocular vision function of a person to be measured with high accuracy and very easily.
  • the present invention has been devised to achieve the above object.
  • the first aspect of the present invention is The image for the right eye to be visually recognized by the right eye of the person to be measured and the image for the left eye to be visually recognized by the left eye of the person to be measured are presented to the person to be measured on a single portable display screen.
  • a second aspect of the present invention is the binocular vision function measuring method according to the first aspect.
  • the display screen of the portable information terminal is used as the portable display screen to present the image for the right eye and the image for the left eye.
  • a third aspect of the present invention is the binocular vision function measuring method according to the first or second aspect.
  • the predetermined parameter value is a value that specifies the congestion range of the person to be measured.
  • a fourth aspect of the present invention is the binocular vision function measuring method according to any one of the first to third aspects.
  • a fifth aspect of the present invention is the binocular vision function measuring method according to any one of the first to fourth aspects.
  • the image for the right eye and the image for the left eye are composed of figures having the same shape and size.
  • a sixth aspect of the present invention is the binocular vision function measuring method according to any one of the first to fifth aspects.
  • a viewing distance setting step for setting the viewing distance of the person to be measured with respect to the right eye image and the left eye image is provided.
  • a seventh aspect of the present invention is This is a binocular vision function measurement program for causing a computer to execute the binocular vision function measurement method according to any one of the first to sixth aspects.
  • the eighth aspect of the present invention is The step of measuring the binocular vision function of the person to be measured by using the binocular vision function measuring method according to any one of the first to sixth aspects, and The step of determining the optical design value of the spectacle lens based on the measurement result of the binocular vision function, It is a design method of a spectacle lens provided with.
  • a ninth aspect of the present invention is A step of designing a spectacle lens using the spectacle lens design method according to the eighth aspect, The step of manufacturing the spectacle lens according to the design result of the spectacle lens, It is a manufacturing method of a spectacle lens provided with.
  • a tenth aspect of the present invention is The image for the right eye to be visually recognized by the right eye of the person to be measured and the image for the left eye to be visually recognized by the left eye of the person to be measured are presented to the person to be measured on a single portable display screen.
  • the optotype display section and A presentation control unit that relatively changes the presentation position of the right eye image and the left eye image
  • a timing detection unit that detects the timing at which the person to be measured cannot fuse the image for the right eye and the image for the left eye when the presentation position is changed.
  • a parameter value calculation unit that calculates a predetermined parameter value for the binocular vision function of the person to be measured based on the relative positional relationship between the right eye image and the left eye image when the timing is detected. It is a binocular vision function measurement system equipped with.
  • the eleventh aspect of the present invention is the binocular vision function measuring system according to the tenth aspect.
  • the optotype presenting unit is configured to present the image for the right eye and the image for the left eye by using the display screen of the portable information terminal as the portable display screen.
  • the binocular vision function of the person to be measured can be performed with high accuracy and very easily.
  • a portable information terminal is used to measure a pair of images having parallax on a single display screen (hereinafter, also referred to as “portable display screen”) of the portable information terminal.
  • the binocular vision function of the subject is measured by presenting it to each of the left and right eyes of the subject and determining whether the subject is fused (identified) when the given parallax is changed.
  • the binocular vision function is measured by calculating a predetermined parameter value for the binocular vision function.
  • the predetermined parameter value a value that specifies the convergence range of the person to be measured is exemplified.
  • the "convergence range” here means the difference in angle between the convergence limit and the divergence limit. The difference in angle may be expressed by the refractive power of the prism.
  • the predetermined parameter value is not limited to the value of the converging range, and the left and right eye vertical divergence allowable values and the first unequal magnification will be described later.
  • Other parameter values may be used, such as an allowable value, a second unequal magnification allowable value, a left-right eye rotation parallax allowable value, and the like.
  • a parallax image is presented to the person to be measured by locating the portable display screen of the portable information terminal in front of the person to be measured. Therefore, the parallax image can be presented very easily. Moreover, when the portable display screen is positioned in front of the person to be measured, if it is shielded around the portable display screen, the parallax image can be presented to the person to be measured in the space where the real space information is blocked. Can be done. In other words, since the parallax image is presented in front of the subject's eyes while being shielded from the outside world, the subject acquires information (real space information) that gives a sense of depth and perspective from the outside world in addition to the presented parallax image.
  • the parallax image can be positioned at an accurate position regardless of the direction of the face of the person to be measured. Furthermore, if the viewing distance to the parallax image (the physical distance between the image and the viewer) is kept constant, the eye adjustment function (focusing function) of the subject's eyes will be constant. Binocular vision function can be measured while maintaining it.
  • the measurement environment can be made the same and multiple measurements can be performed without worrying about the posture and position of the person to be measured. It is possible to do.
  • the measurement environment can be made the same and multiple measurements can be performed without worrying about the posture and position of the person to be measured. It is possible to do.
  • the "adjustable radiance” refers to the radiance (convergence divergence motion) that occurs at the same time as the adjustment that occurs according to the viewing distance.
  • the convergence range in a state where the three-dimensional perception of the person to be measured is suppressed can be measured very easily.
  • the measurement of the convergence range of the person to be measured can be performed with high accuracy and very easily, it is suitable for the person to be measured by using the measurement result as one of the design parameters of the spectacle lens.
  • the fusion range of Panum may be wide, so inset can be reduced without affecting the fusion. It is possible to provide a spectacle lens having a lens design such that the maximum amount of aberration on the nasal side can be reduced.
  • the "motor fusion” refers to a fusion accompanied by eye movements performed to maintain a single vision.
  • FIG. 1 is a block diagram showing a configuration of a spectacle lens manufacturing system 1 for realizing the spectacle lens manufacturing method of the present embodiment.
  • the spectacle lens manufacturing system 1 is installed in, for example, a spectacle lens manufacturing factory, and as shown in FIG. 1, a binocular visual function measuring system 10, an input device 20 (keyboard, mouse, game pad, etc.), and a PC (Personal Computer). ) 30, a display 40, and a processing machine 50.
  • the measurement data of the binocular vision function of the person to be measured measured by using the binocular vision function measurement system 10 and the specification data of the spectacle lens input to the input device 20 are input to the PC 30.
  • the specification data includes, for example, the optical characteristics of the spectacle lens and the product type.
  • apical refractive power spherical refractive power, astigmatic refractive power, astigmatic axis direction, prism refractive power, prism base direction
  • the binocular vision function measuring system 10 and the input device 20 may be installed in an optician store away from the optician lens manufacturing factory. In this case, the measurement data by the binocular vision function measurement system 10 and the specification data input to the input device 20 are transmitted to the PC 30 via the computer network.
  • the PC 30 has a CPU (Central Processing Unit) 32, an HDD (Hard Disk Drive) 34, and a RAM (Random Access Memory) 36.
  • a machining control program for controlling the machining machine 50 is installed in the HDD 34.
  • the CPU 32 loads the machining control program into the RAM 36 and starts it.
  • a GUI Graphic User Interface
  • the processing control program selects the semi-finish lens based on the specification data and the measurement data, performs the surface shape optimization calculation, and determines the optical design value.
  • the operator sets the selected semi-finish lens in the processing machine 50, operates the GUI, and inputs an instruction to start processing.
  • the machining control program reads the determined optical design value and drives and controls the machining machine 50.
  • the processing machine 50 manufactures a spectacle lens by grinding the surface of the semi-finish lens according to the execution of the processing control program.
  • a specific design method for a spectacle lens using measurement data related to binocular vision function is illustrated in, for example, the International Publication No. 2010/090144 pamphlet made by the applicant.
  • FIG. 2 is a diagram showing an outline of the binocular vision function measuring system 10.
  • FIG. 3 is a block diagram showing the configuration of the binocular vision function measuring system 10.
  • design data or evaluation data
  • a spectacle lens that cannot be obtained by a formulation focusing on only one eye. Multiple types of visual function can be measured.
  • the binocular vision function measuring system 10 has a smartphone 110 as a mobile information terminal.
  • a mobile information terminal is a small information electronic device that can be carried and carried by a user, and is configured to have at least a display screen for displaying information.
  • the smartphone 110 is a kind of mobile information terminal, and is configured to have a function as a small computer device in addition to a function as a mobile phone.
  • the mobile information terminal is a smartphone 110 will be taken as an example, but the present invention is not limited to this, and other mobile information terminals such as a tablet terminal and a PDA (Personal Digital Assistant) should be used. It doesn't matter.
  • the smartphone 110 has a display screen (portable display screen) 111 composed of a single LCD (liquid crystal display) panel, organic EL (electroluminescence) panel, or the like on one side.
  • the area on the display screen 111 is divided into an image area 111R for the right eye and an image area 111L for the left eye. Then, as will be described in detail later, the image for the right eye to be visually recognized by the right eye 2R of the subject 2 in the image area 111R for the right eye is visually recognized by the left eye 2L of the subject 2 in the image area 111L for the left eye. It is configured to display each image for the left eye to be displayed individually.
  • the smartphone 110 is supported by the support housing portion 112a so that the display screen 111 is located in front of the person 2 to be measured. That is, when the support housing portion 112a is attached to the head of the person to be measured 2, the display screen 111 of the smartphone 110 supported by the support housing portion 112a is positioned in front of the subject 2. There is.
  • the smartphone 110 supported in this way since the display screen 111 is arranged in the closed space formed by the support housing portion 112a, a space that blocks information (real space information) that gives a sense of depth and perspective from the outside world. The image will be displayed for the person to be measured 2 within.
  • the partition wall 112b is provided so as to be located between the right eye image area 111R and the left eye image area 111L of the display screen 111.
  • the light from the right eye image area 111R of the display screen 111 reaches the left eye 2L of the person to be measured 2, or the light from the left eye image area 111L reaches the right eye 2R of the person to be measured 2. It will be possible to suppress the arrival of.
  • the smartphone 110 is supported by the support housing portion 112a attached to the head of the person to be measured 2, so that the smartphone 110 can be used on the right side while using a single display screen 111 in a space in which real space information is blocked. It functions as a "target display unit" that presents an eye image and a left eye image to the person to be measured 2.
  • the optotype presenting unit is configured by using a smartphone 110 located in front of the person 2 to be measured.
  • the support housing portion 112a that supports the smartphone 110 may be formed, for example, by molding a resin material, but the present invention is not limited to this, and other materials (for example, paper material, metal material, etc.) are used. It may be formed by. The same applies to the partition wall 112b.
  • the support housing portion 112a that supports the smartphone 110 may have a function of changing the setting of the viewing distance of the person to be measured 2 with respect to the image for the right eye and the image for the left eye.
  • a plurality of spacers are prepared for the support housing portion 112a, and one of these spacers is selectively attached for viewing. It may be configured to make the distance variable.
  • a lens having a certain refractive power may be installed between the left eye 2L and the left eye image area 111L, or between the right eye 2R and the right eye image area 111R, or both.
  • the number of lenses may be one, or a plurality of lenses may be combined to obtain a desired refractive power.
  • the smartphone 110 has a CPU 113, a memory 114, and an input device 115 in addition to the display screen 111, and is configured to function as a small computer device.
  • Examples of the input device 115 include a touch panel arranged so as to be superimposed on the display screen 111.
  • a communication type keyboard using short-range wireless communication is provided, the operator or the person to be measured 2 It is preferable in order to improve operability such as.
  • a binocular vision function measurement program which is a dedicated application for measuring binocular vision function, is downloaded (installed) in the memory 114.
  • the CPU 113 reads the binocular vision function measurement program from the memory 114 and starts it.
  • the CPU 113 functions as a presentation control unit 113a, a timing detection unit 113b, and a parameter value calculation unit 113c.
  • the presentation control unit 113a controls the image display operation in the right eye image area 111R and the left eye image area 111L of the display screen 111. Specifically, the presentation control unit 113a gives an instruction to each of the right eye image area 111R to present the right eye image and the left eye image area 111L to present the left eye image. At the same time, the presentation positions of the right eye image and the left eye image are relatively changed. The specific mode of the relative change of the presentation position will be described in detail later. Since the right-eye image and the left-eye image presented by the presentation control unit 113a function as parallax images, they are configured based on figures having the same shape and size. The details of specific examples of the figures constituting each image will be described later.
  • the timing detection unit 113b determines the timing at which the subject 2 cannot fuse the right eye image and the left eye image when the presentation positions of the right eye image and the left eye image are relatively changed. Detect. The detection of such timing may be performed based on the operation content of the input device 115 by the person to be measured 2.
  • the binocular vision of the subject 2 is based on the relative positional relationship between the right eye image and the left eye image at that time. Calculate a predetermined parameter value for the function. Details of specific examples of predetermined parameter values will be described later.
  • the CPU 113 may function as the tracking ability determination unit 113d in response to the activation of the binocular vision function measurement program.
  • the tracking ability determination unit 113d determines the degree of the tracking ability of the eyes of the subject 2 with respect to the position change of the presented image. Specifically, when measuring the binocular vision function of the person to be measured 2, the measurement is performed a plurality of times in which the relative positions of the image for the right eye and the image for the left eye are changed at different speeds, and the person to be measured 2 is measured. It is determined to what extent the eye tracking ability corresponds to a preset plurality of stages.
  • the degree of the eye tracking ability of the subject 2 Is considered to be high. In general, it is considered that it is easier to deal with parallax that changes at a low speed than a sudden change. Therefore, the parameter value acquired at a certain low speed change is used as a reference, and the speed dependence is used to measure the eye of the subject 2. It is also possible to determine the degree of tracking ability.
  • the PC 130 is connected to the smartphone 110 configured as described above via a wired or wireless communication line.
  • a display 140 is connected to the PC 130.
  • the presentation control unit 113a the timing detection unit 113b, the parameter value calculation unit 113c, and the tracking ability determination realized in the smartphone 110 are realized.
  • the function as the unit 113d and the function as the input device 115 may be realized in the PC 130.
  • the PC 30 shown in FIG. 1 and the PC 130 shown in FIG. 2 or 3 are a single PC. There may be.
  • the input device 20 shown in FIG. 1 and the input device 115 shown in FIG. 2 or 3 may be a single input device.
  • the display 40 shown in FIG. 1 and the display 140 shown in FIG. 2 or 3 may be a single display.
  • the binocular vision function measurement program When measuring the binocular vision function, the binocular vision function measurement program is activated on the smartphone 110, and the GUI for giving various instructions for the binocular vision function measurement is displayed on the display screen 111. Then, when there is a GUI operation by the operator, the binocular vision function measurement program generates measurement data according to the GUI operation. Then, when the smartphone 110 is supported by the support housing portion 112a and is positioned in front of the eyes of the person to be measured 2, the smartphone 110 processes the measurement data and the image for the right eye for measuring the binocular visual function. And the left eye image is generated and displayed in the right eye image area 111R or the left eye image area 111L of the display screen 111. As a result, the measurement of the binocular vision function is started.
  • the binocular vision function measurement program supports various measurement items related to binocular vision function, and outputs parameter values for each measurement item as measurement results.
  • the parameter values to be supported include a convergence range, a left-right eye vertical divergence tolerance value, a first unequal magnification tolerance value, a second unequal magnification tolerance value, a left-right eye rotation parallax tolerance value, and the like.
  • the operator selects one of the measurement items on the GUI when performing the binocular vision function measurement.
  • the operator inputs age, viewing distance, etc. as measurement conditions.
  • the input measurement conditions are stored in the memory 114.
  • the viewing distance if the smartphone 110 or the support housing portion 112a has a function of changing the setting of the viewing distance, the viewing distance may be changed as necessary.
  • the binocular vision function measurement program shifts to the congestion range measurement mode for measuring the convergence range of the person to be measured 2.
  • the convergence range referred to here is the convergence without adjustment.
  • the convergence (or divergence) and regulation of the eyeball work essentially in tandem, as shown in the known Donders diagram. Therefore, it is not easy to measure the concentration separately from the regulation.
  • For the Donders diagram see “Shinobu Ishihara, Shinichi Kano Revised” Small Ophthalmology "Revised 17th Edition, Kanahara Publishing, (1925) p50”, “Toyohiko Hatada” Depth Information and Visual Characteristics "Visual Information Study Meeting, April 23, 1974, p12 ”, International Publication No.
  • a straight line with an inclination of 1 (angle of 45 degrees) passing through the origin is a Donders line.
  • the Donders line represents the coordination between convergence and adjustment when a naked-eye subject with no strabismus or oblique position is looking at the subject.
  • Donders curves showing the divergence (or divergence) limit values are plotted. The value from one point on the Donders line to the left and right Donders curves, the right side (the side where the horn angle is large) is classified as imaginary relative horn, and the left side (the side where the horn angle is small) is the real relative horn. being classified.
  • FIG. 4 is a diagram showing a flowchart of processing executed in the congestion range measurement mode by the binocular vision function measurement program.
  • FIG. 5 is a transition diagram of an image displayed on the display screen during execution of the convergence range measurement mode.
  • the processing step is abbreviated as "S”.
  • the left eye image 200L and the right eye image 200R are displayed in the left eye image area 111L and the right eye image area 111R of the display screen 111. (S1 in FIG. 4).
  • the left eye image 200L and the right eye image 200R are the same image including the size, color, shape, and the like. It is desirable that the left eye image 200L and the right eye image 200R have simple geometric shapes so that the subject 2 can concentrate on the measurement.
  • the present invention is not limited to this, and for example, a straight line extending in the same direction and having the same length ( It may be a figure of a line segment), a figure of another geometric shape, or the like.
  • the person to be measured 2 is instructed to perform a predetermined operation such as pressing the operation key of the input device 115 when the image is double-viewed.
  • the instructions are displayed, for example, in at least one of the right eye image area 111R and the left eye image area 111L. Further, the operator may give an instruction directly to the person to be measured 2. The same instruction is given when measuring other measurement items other than the convergence range.
  • the left eye image 200L and the right eye image 200R are displayed in the right eye image area 111R and the left eye image area 111L, respectively. It is confirmed whether each image looks double to the person to be measured 2. If it looks double, in the process of S3 of FIG. 4, the operator separates or approaches the image area 111R for the right eye and the image area 111L for the left eye to a position where the double cannot be seen, and doubles this. Repeat until you can't see it.
  • the left eye image 200L and the right eye image 200R are horizontal of the right eye image area 111R and the left eye image area 111L. It moves in the direction (the direction of the arrow in FIG. 5C) and separates. The movement of the separated images is drawn with continuous or gradual changes. The separation between the left eye image 200L and the right eye image 200R continues until a predetermined operation key of the input device 115 is pressed (S2: NO in FIG. 4).
  • first relative convergence measurement position When a predetermined operation key is pressed by the person to be measured 2, the amount of misalignment between the left eye image 200L and the right eye image 200R at that time (hereinafter, for convenience of explanation, will be referred to as "first relative convergence measurement position". ) Is stored in the memory 114 (S4 in FIG. 4).
  • the positions of the left eye image 200L and the right eye image 200R may be relatively far apart. Therefore, one of the left eye image 200L and the right eye image 200R may be fixed in position during the measurement. The same applies to the left and right eye vertical divergence tolerance measurement mode described later.
  • the presentation time of the separated images is appropriately set according to the tracking ability of the person to be measured.
  • the left eye image 200L and the right eye image 200R are in the horizontal direction of the right eye image area 111R and the left eye image area 111L from the first relative convergence measurement position (FIG. 5B). Move in the direction of the arrow) and approach.
  • the approach between the left eye image 200L and the right eye image 200R continues until a predetermined operation key of the input device 115 is pressed (S6: YES in FIG. 4).
  • a predetermined operation key is pressed by the person to be measured 2
  • the amount of misalignment between the left eye image 200L and the right eye image 200R at that time hereinafter, for convenience of explanation, will be referred to as "second relative convergence measurement position".
  • Is stored in the memory 114 (S7 in FIG. 4).
  • the left eye image 200L and the right eye image 200R are returned from the second relative convergence measurement position to the first relative convergence measurement position. Then, after returning to the first relative convergence measurement position, in the process of S9 of FIG. 4, the left eye image 200L and the right eye image 200R are the right eye image region 111R and the right eye image region 111R from the first relative convergence measurement position.
  • the left eye image region 111L moves in the horizontal direction (the direction of the arrow in FIG. 5C) and is separated from the image region 111L.
  • the separation between the left eye image 200L and the right eye image 200R continues until a predetermined operation key of the input device 115 is pressed (S10: YES in FIG. 4).
  • the amount of misalignment between the left eye image 200L and the right eye image 200R at that time (hereinafter, for convenience of explanation, will be referred to as "third relative convergence measurement position". ) Is stored in the memory 114 (S11 in FIG. 4).
  • the order of processing of S5 or S9 and S8 in FIG. 4 can be changed as follows. For example, as shown in FIG. 6, before the left and right parallax images are brought closer to each other (S5, S9), the parallax image is returned to the first relative convergence measurement position each time (S8). Relative parallax can be measured under conditions that do not include historical effects (S12).
  • Steps (S13, S14) for determining the approach amount or the separation amount may be provided.
  • the first relative convergence measurement position, the second relative convergence measurement position, the third relative convergence measurement position, and the viewing distance are used to obtain the first convergence angle (divergence limit) and the third.
  • the second convergence angle (convergence limit) is calculated.
  • the first angle of convergence represents the actual relative convergence corresponding to the accommodative force at the viewing distance at the time of measurement.
  • the second angle of convergence represents an imaginary relative convergence corresponding to the accommodative force at the viewing distance at the time of measurement.
  • the viewing distance is unchanged during the measurement. Therefore, the accommodation power of the person to be measured 2 does not change substantially during the measurement. Therefore, the real relative convergence and the imaginary relative convergence are separated from the adjustment and measured easily and with high accuracy.
  • the left and right Donders curves are estimated. That is, the cooperative relationship between the convergence and the adjustment of the person to be measured 2 can be obtained.
  • the Donders curve changes with age. Therefore, when estimating the Donders curve, it is better to consider the age input as the measurement condition.
  • the operator can appropriately set and change the speed of relative changes (movement, rotation, scaling, etc.) between the left eye image 200L and the right eye image 200R.
  • the upper limit of the relative speed of change is set to a value such that the error due to the time lag between the timing at which the subject cannot be fused and the timing at which the predetermined operation key of the input device 115 is pressed falls within a predetermined allowable value.
  • the lower limit is set to a value such that the display of the image changes before the fusion works strongly and the fusion range expands beyond the range assumed in the natural eye movement.
  • the specific set values of the upper and lower limits are determined after repeating experiments, for example.
  • the binocular vision function measurement program realizes the function as the tracking ability determination unit 113d, the relative position change speed of the left eye image 200L and the right eye image 200R is changed to a predetermined parameter value.
  • the degree of the ability of the eye of the subject 2 to follow the position change of the presented image may be determined.
  • the degree of eye tracking ability of the subject 2 can be reflected in the moving speeds of the left eye image 200L and the right eye image 200R, so that the subject 2 can reasonably. Eye movements can be performed, and as a result, it becomes possible to measure the binocular vision function of the person to be measured 2 with high accuracy.
  • the left eye image 200L and the right eye image 200R may be separated or approached a plurality of times in order to measure the convergence range quickly and with high accuracy.
  • the left eye image 200L and the right eye image 200R are separated or brought close to each other at high speed to specify the approximate position of the fusion limit. To do.
  • the second measurement hereinafter referred to as "main measurement” for convenience of explanation
  • the left eye image 200L and the right eye image 200R are slowed down (however, fused) around the approximate position specified by the preliminary measurement. Separate or approach at a speed that does not allow the image to work strongly).
  • the measurement section of this measurement is limited to the vicinity of the approximate position of the fusion limit specified in the preliminary measurement. Therefore, the measurement of the convergence range is performed promptly even when both the pre-measurement and the main measurement are performed. Both the pre-measurement and the main measurement may be performed in order to perform quick and highly accurate measurement for measurement items other than the convergence range.
  • the parameter value of the radiation range of the person to be measured 2 can be obtained from the actual relative radiation and the imaginary relative radiation measured in the radiation range measurement mode. Based on such parameter values, for example, the potential deviation (esotropia or exotropia) of the subject 2 is estimated. Parameter values can be estimated for measurement items other than the convergence range in the same way.
  • FIG. 7 is a diagram showing a flowchart of processing executed in the left / right eye vertical divergence tolerance measurement mode by the binocular vision function measurement program.
  • FIG. 8 is a transition diagram of an image displayed on the display screen during execution of the left and right eye vertical divergence tolerance measurement mode.
  • the right eye image area 111R of the display screen 111 is displayed so that the left eye image 200L and the right eye image 200R can be seen in a separated state. And it is displayed in the image area 111L for the left eye (S1 in FIG. 7, FIG. 8 (a)).
  • the left-eye image 200L and the right-eye image 200R move in the vertical direction of the display screen (in the direction of the arrow in FIG. 8B) and are separated from each other (FIG. 7).
  • S12 When a predetermined operation key is pressed by the person to be measured 2 (S3: YES in FIG.
  • first The left and right eye vertical divergence allowable value measurement position is stored in the memory 114 (S14 in FIG. 7).
  • the image 200L for the left eye and the image 200R for the right eye are in the vertical direction of the display screen (in the direction opposite to the arrow direction in FIG. 8B) from the first left / right eye vertical divergence tolerance measurement position. Therefore, it moves in the direction of the arrow in FIG. 8 (c) to approach, and further separates as shown in FIG. 8 (c).
  • a predetermined operation key is pressed by the person to be measured 2 (S6: YES in FIG.
  • second The left and right eye vertical divergence allowable value measurement position is stored in the memory 114 (S17 in FIG. 7).
  • the left and right eye vertical divergence tolerance values based on the first and second left and right eye vertical divergence tolerance measurement positions and the viewing distance, and the vertical direction in which the object can be fused at the viewing distance.
  • the range of is calculated.
  • the left and right eye vertical divergence tolerance measurement mode is used by changing the viewing distance
  • the left and right eye vertical divergence tolerance is measured when different accommodation forces are applied (for example, when looking near or far).
  • the first unequal magnification tolerance is the unequal magnification tolerance of the left and right eyes that can be viewed stereoscopically. Whether or not to prescribe a spectacle lens for unequal magnification is generally determined by a scoop ruler based on whether or not the difference between the left and right eyesight is 2 diopters or more. However, since there are individual differences among patients, it may be difficult to fuse even if the difference between the left and right eyesight is less than 2 diopters. On the contrary, even if the difference between the left and right eyesight is 2 diopters or more, fusion may not be difficult.
  • FIG. 9 is a diagram showing a flowchart of processing executed in the first unequal magnification tolerance measurement mode by the binocular vision function measurement program.
  • FIG. 10 is a transition diagram of an image displayed on the display screen during execution of the first unequal magnification tolerance measurement mode.
  • the image 200L for the left eye and the image 200R for the right eye are in the fusion range of the subject 2 and are slightly deviated from each other. It is displayed at the position (S21 in FIG. 9).
  • the display positions of the left eye image 200L and the right eye image 200R are determined by referring to the measurement results of the convergence range and the upper and lower divergence tolerance values of the left and right eyes. If the convergence range and the upper and lower divergence tolerance of the left and right eyes have not been measured, the operator fine-tunes the positions of the left eye image 200L and the right eye image 200R so that they are within the fusion range of the person to be measured 2. To do.
  • the left eye image 200L is enlarged and displayed with respect to the right eye image 200R.
  • the magnification of the left eye image 200L is fixed in aspect ratio, and is drawn by continuous change or stepwise change.
  • the enlargement of the display of the left eye image 200L continues until a predetermined operation key of the input device 115 is pressed (S22, S3: NO in FIG. 9).
  • a predetermined operation key is pressed by the person to be measured 2 (S3: YES in FIG. 9)
  • the display magnification ratio of the left eye image 200L and the right eye image 200R at that time hereinafter, for convenience of explanation, "No.
  • (1 display magnification ratio) ” is stored in the memory 114 (S24 in FIG. 9).
  • the display magnification ratio of the left eye image 200L and the right eye image 200R may change relatively. Therefore, the change given to the image may be reduction instead of enlargement. Further, during the measurement, the left eye image 200L and the right eye image 200R may be enlarged or reduced at the same time at different magnifications. The same applies to the second unequal magnification allowable value measurement mode described later.
  • the image 200R for the right eye is enlarged and displayed with respect to the image 200L for the left eye.
  • a predetermined operation key is pressed by the person to be measured 2 (S6: YES in FIG. 9)
  • the display magnification ratio of the left eye image 200L and the right eye image 200R at that time (hereinafter, for convenience of explanation, "No. (2) Display magnification ratio" is stored in the memory 114 (S27 in FIG. 9).
  • the first unequal magnification allowable value at the viewing distance is calculated based on the first and second display magnification ratios and the viewing distance.
  • the first unequal magnification tolerance when different accommodation forces are applied is obtained. Be measured.
  • the binocular vision function measurement program shifts to the second unequal magnification tolerance measurement mode for measuring the second unequal magnification tolerance measurement value of the subject 2.
  • the second permissible value of unequal magnification is a permissible value of unequal magnification limited to a specific direction of the left and right eyes capable of stereoscopic viewing.
  • FIG. 11 is a diagram showing a flowchart of processing executed in the second unequal magnification tolerance measurement mode by the binocular vision function measurement program.
  • FIG. 12 is a transition diagram of an image displayed on the display screen during execution of the second unequal magnification tolerance measurement mode.
  • the display of the left eye image 200L in a specific direction is changed to the right eye image 200R.
  • it is enlarged (S32 in FIG. 11).
  • the image example of FIG. 12B only the display magnification of the left eye image 200L in the vertical direction of the screen is enlarged.
  • the enlargement of the left eye image 200L is drawn with continuous change or stepwise change.
  • the enlargement of the display of the left eye image 200L continues until a predetermined operation key of the input device 115 is pressed (S32, S3: NO in FIG. 11).
  • the direction of the scaling target is two directions, the screen vertical direction and the screen horizontal direction. Therefore, the direction of the scaling target is changed to the horizontal direction of the screen (S35: NO, S36 in FIG. 11). Then, as shown in FIG. 12 (c), the horizontal display of the left eye image 200L is enlarged with respect to the right eye image 200R.
  • a predetermined operation key is pressed by the person to be measured 2 (S3: YES in FIG.
  • Display magnification ratio in the second specific direction is stored in the memory 114 (S34 in FIG. 11).
  • the second unequal magnification tolerance value at the viewing distance is calculated based on the display magnification ratio and the viewing distance in the first and second specific directions.
  • the second unequal magnification tolerance when different accommodation forces are applied is obtained. Be measured.
  • the direction of the scaling target is not limited to the two directions of the horizontal screen direction and the vertical screen direction, and may include other directions.
  • Fusion rotation may occur when the line-of-sight directions such as convergence are not parallel.
  • the rotation of the eyeball in the case of distance vision is based on the Listing's Law.
  • the listing law is a law that determines the posture of the eyeball when it faces in a certain direction in space.
  • the posture of the eyeball refers to the lateral and vertical orientations of the eyeball. If the posture of the eyeball is not determined, the top, bottom, left, and right of the retinal image cannot be determined.
  • the posture of the eyeball is not uniquely determined only by the direction of the line of sight, that is, the direction of the optical axis of the eyeball.
  • the posture of the eyeball can still take all directions that rotate around the line of sight just by determining the direction of the line of sight.
  • the listing law defines the posture of the eyeball in any direction of the line of sight at infinity.
  • Visual Information Processing Handbook p. 405 states that "any rotation of one eye can be considered to occur about an axis in one plane (listing plane)".
  • the above description of the listing law will be described using the coordinate system shown in FIG. 13 is a coordinate system with the point R, which is the center of rotation of the eyeball, as the origin, and the direction of entering the eye from the front (horizontal front) is defined as the X-axis direction, which is orthogonal to the X-axis direction.
  • the vertical direction is defined as the Y-axis direction
  • the horizontal direction orthogonal to the X-axis direction is defined as the Z-axis direction.
  • the ZZ plane is a listing plane.
  • the posture after the rotation of the eyeball in any direction is the same as the rotation about the straight line in the listing plane including the point R.
  • FIG. 13 an example of a straight line serving as the rotation axis is shown between the Y-axis and the Z-axis (on the YY plane).
  • the rotation axis is orthogonal to both the first eye position (X-axis direction) and the line-of-sight direction after rotation.
  • the eyeball is rotated to a direction vector (L, M, N) (not shown).
  • the vectors of the X-axis direction, the Y-axis direction, and the Z-axis direction of the eyeball coordinate system after rotation are calculated by the following equation (1).
  • the listing law is correct as one eye determines the posture of the eyeball with respect to an object at infinity. Further, for example, when the body is tilted while looking at an object at infinity, the posture of the eyeball is the same for the left eye and the right eye, and the rotation of the eyeball is also the same. On the other hand, when viewing an object that is not at infinity with both eyes, the posture of the eyeball may differ between the left eye and the right eye.
  • FIGS. 14A and 14B are diagrams for explaining the line-of-sight directions of the left and right eyes in the case of binocular vision.
  • the broken line indicates a virtual eyeball 55 arranged at an intermediate position between the left eyeball 51L and the right eyeball 51R.
  • the eyeball 51L and the eyeball 51R face the same viewing direction as shown in FIG. 14A. Since both the left and right eyeballs follow the listing law, the posture after rotation is the same. At this time, there is no difference in the retinal images of the left and right eyes.
  • the eye posture after rotation that is, the Y-axis and Z-axis direction vectors after rotation depend on the visual direction vector shown in the equation (1).
  • the Y-axis and Z-axis direction vectors after rotation do not match with the left and right eyes. Therefore, the rotation of the retinal image is deviated.
  • rotation around the line of sight is required for each of the left and right eyes. This rotation around the line of sight is fusion rotation.
  • FIG. 15 is a diagram showing a flowchart of processing executed in the left-right eye rotation parallax tolerance measurement mode by the binocular vision function measurement program.
  • FIG. 16 is a transition diagram of an image displayed on the display screen during execution of the left-right eye rotation parallax measurement mode.
  • One rotation angle difference is stored in the memory 114 (S44 in FIG. 15).
  • the center of rotation of the image is the center of gravity of the image.
  • the difference in rotation angle between the left eye image 200L and the right eye image 200R may change relatively. Therefore, during the measurement, the left eye image 200L and the right eye image 200R may be rotated at different speeds or in different directions at the same time.
  • the left-right eye rotation parallax tolerance value at the viewing distance is calculated based on the first and second rotation angle differences and the viewing distance.
  • the left-right eye rotation parallax tolerance is measured when different accommodation forces are applied (for example, when viewing near or far).
  • the binocular vision function measuring system 10 can also be used to measure the stereoscopic function.
  • the stereoscopic measurement for example, two types of parallax images having different shapes are displayed in the right eye image area 111R and the left eye image area 111L of the display screen 111. It is desirable that the parallax image has a simple geometric shape such as ⁇ or ⁇ so that the person to be measured 2 can concentrate on the measurement.
  • the two types of parallax images are a ⁇ image and a ⁇ image.
  • the ⁇ image has a larger parallax than the ⁇ image. Therefore, the person 2 to be measured can see the ⁇ image in the foreground and the ⁇ image in the back.
  • the parallax of at least one of the ⁇ image and the ⁇ image is changed continuously or stepwise.
  • the person to be measured 2 presses a predetermined operation key of the input device 115 at a time when the depth of the ⁇ image and the ⁇ image cannot be felt or when a double image is seen.
  • the memory 114 stores the parallax of the image at the time when a predetermined operation key is pressed.
  • the CPU 113 calculates the limit at which the subject 2 can see stereoscopically based on the parallax and the viewing distance of the stored image.
  • one measurement item is measured.
  • a complex measurement may be performed in which the measurement items of the above are measured at the same time.
  • the measurement items of the above are measured at the same time.
  • the measurement results that cannot be grasped only by the measurement results of each measurement item alone may be obtained.
  • the operator can arbitrarily select the measurement items to be measured at the same time.
  • Some combinations of measurement items may be prepared in advance. Below, three examples of complex measurement will be described.
  • the diagonal direction of the screen is any direction other than the horizontal direction of the screen or the vertical direction of the screen, and includes both the horizontal component of the screen and the vertical component of the screen.
  • the left eye image 200L or the right eye image 200R is combined with each change pattern (movement in the horizontal screen direction and the vertical screen direction) in the convergence range measurement mode and the left / right eye vertical divergence tolerance measurement mode.
  • a change in display hereinafter referred to as "composite change" for convenience of explanation
  • the angle in the oblique direction of the screen may be set by the operator or may be predetermined by a binocular vision function measurement program.
  • FIG. 17 is an example of displaying an image in the first complex measurement mode.
  • the flowchart of the first complex measurement mode is the same as the flowchart of the convergence range measurement mode and the like, and is therefore omitted.
  • the image 200L for the left eye moves from the position of the broken line in the figure in the oblique direction of the screen.
  • the movement in the oblique direction of the screen continues until a predetermined operation key of the input device 115 is pressed.
  • a predetermined operation key is pressed by the person to be measured 2
  • the amount of misalignment between the left eye image 200L and the right eye image 200R at that time is stored in the memory 114.
  • the left eye image 200L or the right eye image 200R may be moved in different diagonal directions on the screen to collect a plurality of misalignment amount data. Based on each position shift amount and viewing distance stored in the memory 114, a composite measurement result of the convergence range at the viewing distance and the upper and lower divergence tolerance values of the left and right eyes is calculated.
  • a complex measurement result can be obtained when different accommodation forces are applied (for example, when the subject is viewed from a distance or a distance).
  • the second unequal magnification tolerance (About the combined measurement of the convergence range-the upper and lower divergence tolerance of the left and right eyes-the second unequal magnification tolerance (or the first unequal magnification tolerance))
  • the interaction is strong in the convergence range, vertical divergence, and unequal magnification of the left and right eyes. Therefore, in the second combined measurement mode, at least one of the left eye image 200L and the right eye image 200R is continuously or stepwise moved in the oblique direction of the screen and enlarged or reduced.
  • the second unequal magnification tolerance is measured, and when the aspect ratio is fixed, the first unequal magnification tolerance is measured.
  • the image 200L for the left eye or the image 200R for the right eye has a second unequal magnification tolerance value (or a first unequal magnification tolerance value) in the convergence range measurement mode, the left and right eye vertical divergence tolerance measurement mode, and the second unequal magnification tolerance measurement mode.
  • a complex change is given that combines each change pattern (movement in the horizontal direction of the screen, movement in the vertical direction of the screen, change of display magnification) in the measurement mode.
  • the ratio of each change pattern may be set by the operator or may be predetermined by the binocular vision function measurement program.
  • FIG. 18 is an example of displaying an image in the second complex measurement mode.
  • the flowchart of the second complex measurement mode is the same as the flowchart of the convergence range measurement mode and the like, and is therefore omitted.
  • the image 200L for the left eye moves from the position of the broken line in the figure in the diagonal direction of the screen and is enlarged only in the vertical direction of the screen. The movement and enlargement of the left eye image 200L continues until a predetermined operation key of the input device 115 is pressed.
  • the left eye image 200L or the right eye image 200R may be repeatedly moved and enlarged in different patterns to collect a plurality of image change state data.
  • the combined measurement result of is calculated.
  • each change pattern moves in the horizontal direction of the screen, rotation around the center of gravity of the image
  • the ratio of each change pattern may be set by the operator or may be predetermined by the binocular vision function measurement program.
  • FIG. 19 is an example of displaying an image in the third complex measurement mode.
  • the flowchart of the third complex measurement mode is the same as the flowchart of the convergence range measurement mode and the like, and is therefore omitted.
  • the left-eye image 200L and the right-eye image 200R move in the horizontal direction of the screen and rotate counterclockwise and clockwise while being separated from each other.
  • the movement and rotation of the left eye image 200L and the right eye image 200R continue until a predetermined operation key of the input device 115 is pressed.
  • a predetermined operation key is pressed by the person to be measured 2
  • the amount of misalignment and the difference in rotation angle between the left eye image 200L and the right eye image 200R at that time are stored in the memory 114.
  • the left eye image 200L or the right eye image 200R may be repeatedly moved and rotated in different patterns to collect a plurality of misalignment amount and rotation angle difference data. Based on each position shift amount, rotation angle difference, and viewing distance stored in the memory 114, a composite measurement result of the convergence range and the left-right eye rotation parallax tolerance value at the viewing distance is calculated.
  • a complex measurement result can be obtained when different adjusting forces are applied (for example, when the distance is viewed or the distance is viewed).
  • the left eye image 200L and the right eye image 200R are displayed in the center of the display screen. Therefore, only the measurement result in the state where the person to be measured 2 is viewed from the front can be obtained. Therefore, after performing the measurement in the front view state in each measurement mode, the display positions of the left eye image 200L and the right eye image 200R are moved to the periphery of the display screen (upper left corner of the screen) as shown in FIG. 20, for example. ..
  • the smartphone 110 is supported, the support housing portion 112a is attached to the head of the person to be measured 2, and the positional relationship between them is fixed.
  • the image 200L for the left eye and the image 200R for the right eye are naturally lateral to each other. Look.
  • the measurement result in the state where the person to be measured 2 looks sideways can be obtained.
  • the left eye image 200L and the right eye image 200R are moved to different positions around the screen (center of the upper end of the screen, upper right corner of the screen, center of the right edge of the screen, lower right corner of the screen, etc.) in order, various measurements are performed. Measurement results can be obtained in a lateral view state in various directions.
  • the conditions of the lateral view are different from those of the front view, for example, always accompanied by fusion rotation. Therefore, a measurement result different from that in the case of front view can be obtained. If the spectacle lens is designed in consideration of such measurement results, a more suitable formulation becomes possible.
  • (A) when measuring the binocular vision function of the person to be measured 2, an image for the right eye and an image for the left eye (that is, an image for the left eye) with respect to the person to be measured 2 are displayed on a single portable display screen 111.
  • Parallax image is presented.
  • the display screen 111 of the smartphone 110 is divided into an image area 111R for the right eye and an image area 111L for the left eye, an image for the right eye is displayed in the image area 111R for the right eye, and an image for the left eye is displayed.
  • the parallax image is presented to the subject 2.
  • the error of the left and right parallax image positions with respect to the median surface is kept constant regardless of the direction of the face of the person to be measured 2. be able to. Therefore, it is preferable to mount the display screen 111 on the person to be measured 2 so that the error between the left and right parallax image positions is eliminated. Furthermore, when the portable display screen 111 is used, it is possible to easily present a parallax image in a space in which real space information is blocked by shielding the surroundings thereof.
  • the person 2 to be measured may acquire information (real space information) that gives a sense of depth and perspective from the outside world in addition to the presented parallax image. Absent. Therefore, the ability related to the binocular vision function can be measured with high accuracy without giving the subject 2 a clue to the sense of depth. That is, according to the present embodiment, by presenting the parallax image on a single portable display screen 111, the measurement of the binocular vision function of the subject 2 can be performed with high accuracy and very easily. It can be carried out.
  • the display screen 111 of the smartphone 110 which is a kind of portable information terminal, is used as a portable display screen to measure the binocular vision function of the person to be measured. Therefore, the presentation of the parallax image on a single portable display screen can be easily and surely realized, and the introduction cost for that purpose can be suppressed. Therefore, it is preferable to measure the binocular vision function with high accuracy and very easily.
  • (C) As described in the present embodiment, if a value that specifies the radiation range of the person to be measured 2 is calculated as a predetermined parameter value for the binocular vision function of the person to be measured 2, the radiation of the person to be measured 2 is calculated.
  • the range can be measured with high accuracy and very easily. Then, by using the measurement result as one of the design parameters of the spectacle lens, it becomes possible to provide a spectacle lens suitable for the person to be measured 2.
  • (D) As described in the present embodiment, after determining the degree of the eye tracking ability of the subject 2 with respect to the position change of the presented image, the speed of the position change of the presented image is determined based on the determination result. Then, since the degree of the eye tracking ability of the subject 2 is reflected in the speed of the position change of the left presentation image, the subject 2 can perform the eye movement without difficulty, and as a result, the subject 2 is measured. It becomes possible to measure the binocular visual function of the person 2 with high accuracy.
  • the case where the presentation of the parallax image on a single portable display screen is realized by using the display screen 111 of the smartphone 110 has been given as an example, but the present invention is limited to this.
  • the parallax image may be presented by using the display screen of another mobile information terminal such as a tablet terminal or a PDA.
  • the moving speed, rotation speed, and scaling speed of the left eye image 200L or the right eye image 200R are all described on the premise of constant speed.
  • the present invention is not limited to this, and the left eye image 200L or the right eye image 200R may be moved, rotated, or scaled with acceleration.
  • 1 Eyeglass lens manufacturing system, 10 ... Binocular visual function measurement system, 20 ... Input device, 30, 130 ... PC, 40, 140 ... Display, 50 ... Processing machine, 110 ... Smartphone, 111 ... Display screen, 111R ... Right Eye image area, 111L ... Left eye image area, 113 ... CPU, 113a ... Presentation control unit, 113b ... Timing detection unit, 113c ... Parameter value calculation unit, 113d ... Tracking ability determination unit, 200R ... Right eye image, 200L ... Left eye image

Abstract

被測定者の右眼で視認させる右眼用画像と、被測定者の左眼で視認させる左眼用画像とを、単一の可搬型表示画面上で被測定者に対して呈示する視標呈示ステップと、右眼用画像および左眼用画像の呈示位置を相対的に変化させる呈示制御ステップと、呈示位置を変化させた際に被測定者が右眼用画像と左眼用画像とを融像できなくなるタイミングを検知するタイミング検知ステップと、タイミングを検知したときの右眼用画像と左眼用画像との相対位置関係に基づいて被測定者の両眼視機能についての所定パラメータ値を算出するパラメータ値算出ステップと、を備える両眼視機能測定方法を提供する。

Description

両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム
 本発明は、両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システムに関する。
 眼鏡装用者については、両眼視機能検査を行って、例えば、輻湊、開散範囲等を測定することがある。輻湊、開散範囲には個人差があり、これらを測定することは、眼鏡レンズの設計において、近方視における眼の働きを把握する上で非常に重要である。
 輻湊、開散範囲等に代表される両眼視機能については、例えば、据置型3次元対応ビデオモニタを利用して左右の視差画像を呈示し、それぞれの呈示位置を相対的に移動させ、それぞれを融像できなくなるタイミングを検知することで、両眼視機能の測定を行うことが、特許文献1に開示されている。
特開2012-95693号公報
 特許文献1に開示された両眼視機能測定方法では、据置型3次元対応ビデオモニタを利用して両眼視機能の測定を行う。そのため、左右の視差画像に対して被測定者の頭の位置が固定されないことになり、測定中の頭の向きによっては、正中面に対して誤差が生じるおそれがある。また、据置型3次元対応ビデオモニタを実環境上に置くことによって、表示される視差情報以外に外界から奥行きと遠近感を感じる情報(実空間情報)を被測定者が同時に取得してしまうため、通常の調節と連動した形での輻湊・開散になる可能性がある。さらには、据置型3次元対応ビデオモニタを利用することから、必要となるシステム構成が大掛かりなものとなってしまい、両眼視機能の測定を簡便に行えるとは言えない。
 本発明は、被測定者の両眼視機能を高精度に、かつ、非常に簡便に行える技術を提供することを目的とする。
 本発明は、上記目的を達成するために案出されたものである。
 本発明の第1の態様は、
 被測定者の右眼で視認させる右眼用画像と、前記被測定者の左眼で視認させる左眼用画像とを、単一の可搬型表示画面上で前記被測定者に対して呈示する視標呈示ステップと、
 前記右眼用画像および前記左眼用画像の呈示位置を相対的に変化させる呈示制御ステップと、
 前記呈示位置を変化させた際に前記被測定者が前記右眼用画像と前記左眼用画像とを融像できなくなるタイミングを検知するタイミング検知ステップと、
 前記タイミングを検知したときの前記右眼用画像と前記左眼用画像との相対位置関係に基づいて前記被測定者の両眼視機能についての所定パラメータ値を算出するパラメータ値算出ステップと、
 を備える両眼視機能測定方法である。
 本発明の第2の態様は、第1の態様に記載の両眼視機能測定方法において、
 前記可搬型表示画面として携帯情報端末が有する表示画面を用いて、前記右眼用画像および前記左眼用画像の呈示を行う。
 本発明の第3の態様は、第1または第2の態様に記載の両眼視機能測定方法において、
 前記所定パラメータ値は、前記被測定者の輻湊範囲を特定する値である。
 本発明の第4の態様は、第1~第3のいずれか1態様に記載の両眼視機能測定方法において、
 前記右眼用画像および前記左眼用画像の相対位置変化の速度を変えて、前記所定パラメータ値を複数取得することによって、呈示画像の位置変化に対する前記被測定者の眼の追従能力の程度を判定する追従能力判定ステップを備える。
 本発明の第5の態様は、第1~第4のいずれか1態様に記載の両眼視機能測定方法において、
 前記右眼用画像および前記左眼用画像は、同一の形状および大きさを有する図形によって構成されている。
 本発明の第6の態様は、第1~第5のいずれか1態様に記載の両眼視機能測定方法において、
 前記右眼用画像および前記左眼用画像に対する前記被測定者の視距離を設定する視距離設定ステップ
 を備える。
 本発明の第7の態様は、
 第1~第6のいずれか1態様に記載の両眼視機能測定方法をコンピュータに実行させるための両眼視機能測定プログラムである。
 本発明の第8の態様は、
 第1~第6のいずれか1態様に記載の両眼視機能測定方法を使用して被測定者の両眼視機能を測定するステップと、
 前記両眼視機能の測定結果に基づいて眼鏡レンズの光学設計値を決定するステップと、
 を備える眼鏡レンズの設計方法である。
 本発明の第9の態様は、
 第8の態様に記載の眼鏡レンズの設計方法を使用して眼鏡レンズを設計するステップと、
 前記眼鏡レンズの設計結果に従って眼鏡レンズを製造するステップと、
 を備える眼鏡レンズの製造方法である。
 本発明の第10の態様は、
 被測定者の右眼で視認させる右眼用画像と、前記被測定者の左眼で視認させる左眼用画像とを、単一の可搬型表示画面上で前記被測定者に対して呈示する視標呈示部と、
 前記右眼用画像および前記左眼用画像の呈示位置を相対的に変化させる呈示制御部と、
 前記呈示位置を変化させた際に前記被測定者が前記右眼用画像と前記左眼用画像とを融像できなくなるタイミングを検知するタイミング検知部と、
 前記タイミングを検知したときの前記右眼用画像と前記左眼用画像との相対位置関係に基づいて前記被測定者の両眼視機能についての所定パラメータ値を算出するパラメータ値算出部と、
 を備える両眼視機能測定システムである。
 本発明の第11の態様は、第10の態様に記載の両眼視機能測定システムにおいて、
 前記視標呈示部は、前記可搬型表示画面として携帯情報端末が有する表示画面を用いて、前記右眼用画像および前記左眼用画像の呈示を行うように構成されている。
 本発明によれば、被測定者の両眼視機能を高精度に、かつ、非常に簡便に行うことができる。
本発明の実施形態の眼鏡レンズの製造方法を実現するための眼鏡レンズ製造システムの構成を示すブロック図である。 本発明の実施形態の両眼視機能測定システムの概略を示す図である。 本発明の実施形態の両眼視機能測定システムの構成を示すブロック図である。 本発明の実施形態の両眼視機能測定プログラムによる輻湊範囲測定モードで実行される処理のフローチャートを示す図である。 本発明の実施形態の輻湊範囲測定モードの実行中に表示画面に表示される画像の遷移図である。 本発明の実施形態の両眼視機能測定プログラムによる輻湊範囲測定モードで実行される処理の変形例のフローチャートを示す図である。 本発明の実施形態の両眼視機能測定プログラムによる左右眼上下開散許容値測定モードで実行される処理のフローチャートを示す図である。 本発明の実施形態の左右眼上下開散許容値測定モードの実行中に表示画面に表示される画像の遷移図である。 本発明の実施形態の両眼視機能測定プログラムによる第一の不等倍率許容値測定モードで実行される処理のフローチャートを示す図である。 本発明の実施形態の第一の不等倍率許容値測定モードの実行中に表示画面に表示される画像の遷移図である。 本発明の実施形態の両眼視機能測定プログラムによる第二の不等倍率許容値測定モードで実行される処理のフローチャートを示す図である。 本発明の実施形態の第二の不等倍率許容値測定モードの実行中に表示画面に表示される画像の遷移図の遷移図である。 リスティング法則に関する説明を行うための図である。 両眼視の場合の左右の眼の視線方向を説明するための図である。 本発明の実施形態の両眼視機能測定プログラムによる左右眼回旋視差許容値測定モードで実行される処理のフローチャートを示す図である。 本発明の実施形態の左右眼回旋視差許容値測定モードの実行中に表示画面に表示される画像の遷移図である。 第一の複合的な測定モードにおける画像の遷移図である。 第二の複合的な測定モードにおける画像の遷移図である。 第三の複合的な測定モードにおける画像の遷移図である。 側方視を考慮した測定モードにおける画像の遷移図である。
 以下、本発明の実施形態について、図面を参照しつつ説明する。
<本実施形態の概要>
 まず、本実施形態の概要を説明する。
 本実施形態では、可搬型の携帯情報端末を用いて、その携帯情報端末が有する単一の表示画面(以下、「可搬型表示画面」ともいう。)上に視差がある一対の画像を被測定者の左右眼のそれぞれに呈示し、与えた視差を変化させたときに融像(同一視)しているかを判断することで、被測定者の両眼視機能の測定を行う。両眼視機能の測定は、両眼視機能についての所定パラメータ値を算出することによって行う。
 所定パラメータ値としては、被測定者の輻湊範囲を特定する値が例示される。ここでいう「輻湊範囲」とは、輻湊限界と開散限界との角度の差を意味する。なお、角度の差は、プリズム屈折力で表してもよい。以下の説明では、主として輻湊範囲を測定する場合を例に挙げるが、所定パラメータ値が輻湊範囲の値に限定されることはなく、後述する左右眼上下開散許容値、第一の不等倍率許容値、第二の不等倍率許容値、左右眼回旋視差許容値等のように、他のパラメータ値であってもよい。
 本実施形態においては、両眼視機能の測定にあたり、携帯情報端末における可搬型表示画面を被測定者の眼前に位置させることで、被測定者に対する視差画像の呈示を行う。したがって、非常に簡便に視差画像の呈示を行うことができる。
 しかも、可搬型表示画面を被測定者の眼前に位置させる際に、その可搬型表示画面の周囲に遮蔽すれば、実空間情報を遮断した空間内で被測定者に対する視差画像の呈示を行うことができる。つまり、外界から遮蔽された状態で被測定者の眼前に視差画像が呈示されるので、呈示される視差画像以外に外界から奥行きと遠近感を感じる情報(実空間情報)を被測定者が取得してしまうことがない。
 また、可搬型表示画面を被測定者の眼前に位置させた状態を保つことで、被測定者の顔の方向に依存せず正確な位置に視差画像を位置させることができる。
 さらには、視差画像に対する視距離(画像とそれを見る者との物理的な距離)についても一定に保たれるようにすれば、被測定者の眼の調節機能(ピント合わせ機能)を一定に保ったまま両眼視機能の測定を行うことができる。
 したがって、本実施形態によれば、可搬型表示画面を被測定者の眼前に位置させることで、被測定者の体勢や位置を気にすることなく、測定環境を同一にして複数回の測定を行うことが可能である。しかも、携帯情報端末における可搬型表示画面を用いて一対の視差画像のみを呈示することで、奥行き感覚を手掛かりとすることなく、輻湊範囲に関する能力を測定でき、調節性輻湊の影響を少なくすることが可能になる。ここで「調節性輻湊」とは、視距離に応じて発生する調節と同時に起こる輻湊(輻湊開散運動)のことをいう。
 つまり、本実施形態によれば、被測定者の立体的な知覚を抑制した状態での輻湊範囲を非常に簡便に測定できる。このように、被測定者の輻湊範囲の測定を高精度に、かつ、非常に簡便に行うことができれば、その測定結果を眼鏡レンズの設計パラメータの一つとして用いることで、被測定者に適した眼鏡レンズを提供することが実現可能となる。
 例えば、測定結果から運動性融像が弱いことが認められた被測定者については、両眼分離が強い状態で融像しにくく複視を訴えやすいので、運動性融像ができる範囲までプリズムを入れることで補う、といったレンズ設計を行った眼鏡レンズを提供することが実現可能となる。また、例えば、測定結果から運動性融像が強いことが認められた被測定者については、パナムの融像域が広い可能性があるので、融像に影響することなくインセットを減らすことが可能であり、鼻側の最大収差量を減らすことができる、といったレンズ設計を行った眼鏡レンズを提供することが実現可能となる。なお、「運動性融像」とは、単一視を維持するために行われる眼球運動を伴う融像のことをいう。
<システム構成例>
 続いて、本実施形態の具体的な内容を説明する。
(眼鏡レンズ製造システムの構成)
 図1は、本実施形態の眼鏡レンズの製造方法を実現するための眼鏡レンズ製造システム1の構成を示すブロック図である。眼鏡レンズ製造システム1は、例えば眼鏡レンズ製造工場に設置されており、図1に示すように、両眼視機能測定システム10、入力装置20(キーボード、マウス、ゲームパッド等)、PC(Personal Computer)30、ディスプレイ40、加工機50を有している。PC30には、両眼視機能測定システム10を用いて測定された被測定者の両眼視機能の測定データと、入力装置20に入力された眼鏡レンズの仕様データが入力する。仕様データには、例えば眼鏡レンズの光学特性や製品種別が含まれる。眼鏡レンズの光学特性には、例えば頂点屈折力(球面屈折力、乱視屈折力、乱視軸方向、プリズム屈折力、プリズム基底方向)等が想定される。両眼視機能測定システム10および入力装置20は、眼鏡レンズ製造工場から離れた眼鏡店に設置されてもよい。この場合、両眼視機能測定システム10による測定データや入力装置20に入力された仕様データは、コンピュータネットワークを介してPC30に伝送される。
 PC30は、CPU(Central Processing Unit)32、HDD(Hard Disk Drive)34、RAM(Random Access Memory)36を有している。HDD34には、加工機50を制御するための加工制御プログラムがインストールされている。CPU32は、加工制御プログラムをRAM36にロードして起動する。加工制御プログラムが起動すると、眼鏡レンズの設計および製造を指示するためのGUI(Graphical User Interface)がディスプレイ40の表示画面に表示される。加工制御プログラムは、仕様データおよび測定データに基づいてセミフィニッシュレンズを選定した上で面形状の最適化計算を行い、光学設計値を決定する。
 オペレータは、選定されたセミフィニッシュレンズを加工機50にセットしてGUIを操作し、加工開始の指示入力を行う。加工制御プログラムは、決定した光学設計値を読み込んで加工機50を駆動制御する。加工機50は、加工制御プログラムの実行に従ってセミフィニッシュレンズの表面を研削して眼鏡レンズを製造する。なお、両眼視機能に関する測定データを用いた眼鏡レンズの具体的設計方法は、例えば本出願人がした国際公開第2010/090144号パンフレット等に例示がある。
(両眼視機能測定システムの構成)
 図2は、両眼視機能測定システム10の概略を示す図である。図3は、両眼視機能測定システム10の構成を示すブロック図である。両眼視機能測定システム10を用いた両眼視機能測定方法では、片眼だけに着目した処方では得られない眼鏡レンズの設計データ(又は評価データ)を得るべく、被測定者2の両眼視機能を複数種類測定することができる。
 両眼視機能測定システム10は、図2および図3に示すように、携帯情報端末としてのスマートフォン110を有している。携帯情報端末は、利用者が携帯して持ち運ぶことができる小型の情報電子機器であり、少なくとも情報表示を行う表示画面を有して構成されている。スマートフォン110は、携帯情報端末の一種で、携帯電話機としての機能に加えて、小型のコンピュータ装置としての機能を併せ持つように構成されたものである。なお、ここでは、携帯情報端末がスマートフォン110である場合を例に挙げるが、これに限定されることはなく、例えばタブレット端末やPDA(Personal Digital Assistant)のような他の携帯情報端末を用いるようにしても構わない。
 スマートフォン110は、一方の面側に、単一のLCD(liquid crystal display)パネルや有機EL(electro luminescence)パネル等によって構成される表示画面(可搬型表示画面)111を有している。表示画面111は、その画面上の領域が、右眼用画像領域111Rと左眼用画像領域111Lとの分割されている。そして、詳細を後述するように、右眼用画像領域111Rにおいて被測定者2の右眼2Rで視認させる右眼用画像を、左眼用画像領域111Lにおいて被測定者2の左眼2Lで視認させる左眼用画像を、それぞれ個別に表示するように構成されている。
 そして、スマートフォン110は、表示画面111が被測定者2の眼前に位置するように、支持筐体部112aによって支持される。つまり、支持筐体部112aを被測定者2の頭部に装着すると、その支持筐体部112aによって支持されるスマートフォン110の表示画面111が、被測定者2の眼前に位置するようになっている。このように支持されるスマートフォン110は、支持筐体部112aによって形成される閉空間内に表示画面111が配されるので、外界から奥行きと遠近感を感じる情報(実空間情報)を遮断した空間内で被測定者2に対する画像表示を行うことになる。
 支持筐体部112aによって形成される閉空間内には、表示画面111の右眼用画像領域111Rと左眼用画像領域111Lとの間に位置するように、隔壁112bが設けられていることが好ましい。これにより、表示画面111の右眼用画像領域111Rからの光が被測定者2の左眼2Lに到達してしまったり、左眼用画像領域111Lからの光が被測定者2の右眼2Rに到達してしまったりすることを抑制できるようになる。
 つまり、スマートフォン110は、被測定者2の頭部に装着された支持筐体部112aによって支持されることで、実空間情報を遮断した空間内で、単一の表示画面111を用いつつ、右眼用画像と左眼用画像とを被測定者2に対して呈示する「視標呈示部」として機能することになる。換言すると、視標呈示部は、被測定者2の眼前に位置するスマートフォン110を用いて構成されている。
 このようなスマートフォン110を被測定者2の眼前に位置させると、被測定者2の右眼2Rには右眼用画像だけが見え、被測定者2の左眼2Lには左眼用画像だけが見える。これにより、被測定者2は、パナムの融像域圏内であれば網膜上の非対応点に結像していても右眼用画像領域111Rおよび左眼用画像領域111Lの視差画像を融像させることができる。
 スマートフォン110を支持する支持筐体部112aは、例えば、樹脂材料の成型加工によって形成することが考えられるが、これに限定されることはなく、他の材料(例えば、紙材料や金属材料等)によって形成したものであってもよい。隔壁112bについても、同様である。
 なお、スマートフォン110を支持する支持筐体部112aは、右眼用画像および左眼用画像に対する被測定者2の視距離の設定を可変にする機能を有したものであってもよい。具体的には、視距離を可変にするために、支持筐体部112aは、例えば、複数のスペーサ(枠材)を用意しておき、これらのいずれかを選択的に装着することで、視距離を可変にするように構成されていてもよい。また、左眼2Lと左眼用画像領域111Lの間、右眼2Rと右眼用画像領域111Rの間のいずれかまたは両方に、ある屈折力をもったレンズを設置してもよい。レンズは、1枚でもよいし、複数のレンズを組み合わせて所望の屈折力にしてもよい。
 また、スマートフォン110は、表示画面111に加えて、CPU113、メモリ114、入力装置115を有しており、小型のコンピュータ装置として機能するように構成されている。入力装置115としては、例えば、表示画面111に重ねて配置されたタッチパネル等が例示できるが、これに加えて近距離無線通信を利用した通信型キーボードを備えていると、オペレータや被測定者2等の操作性を向上させる上で好ましい。
 メモリ114には、両眼視機能測定を行うための専用アプリケーションである両眼視機能測定プログラムがダウンロード(インストール)されている。CPU113は、両眼視機能測定プログラムをメモリ114から読み出して起動する。両眼視機能測定プログラムが起動すると、CPU113は、呈示制御部113a、タイミング検知部113bおよびパラメータ値算出部113cとして機能することになる。
 呈示制御部113aは、表示画面111の右眼用画像領域111Rおよび左眼用画像領域111Lにおける画像表示動作を制御する。具体的には、呈示制御部113aは、右眼用画像領域111Rに右眼用画像を呈示させ、左眼用画像領域111Lに左眼用画像を呈示させるように、それぞれに対して指示を与えるとともに、右眼用画像および左眼用画像の呈示位置を相対的に変化させるようにする。呈示位置の相対的変化の具体的な態様については、詳細を後述する。
 呈示制御部113aが呈示させる右眼用画像および左眼用画像は、視差画像として機能するものであることから、同一の形状および大きさを有する図形に基づいて構成されているものとする。なお、各画像を構成する図形の具体例については、詳細を後述する。
 タイミング検知部113bは、右眼用画像および左眼用画像の呈示位置を相対的に変化させた際に、被測定者2が右眼用画像と左眼用画像とを融像できなくなるタイミングを検知する。かかるタイミングの検知は、被測定者2による入力装置115での操作内容に基づいて行えばよい。
 パラメータ値算出部113cは、タイミング検知部113bが融像できなくなるタイミングを検知すると、そのときの右眼用画像と左眼用画像との相対位置関係に基づいて、被測定者2の両眼視機能についての所定パラメータ値を算出する。所定パラメータ値の具体例については、詳細を後述する。
 これらの機能に加えて、CPU113は、両眼視機能測定プログラムの起動に応じて、追従能力判定部113dとして機能するものであってもよい。
 追従能力判定部113dは、呈示画像の位置変化に対する被測定者2の眼の追従能力の程度を判定する。具体的には、被測定者2の両眼視機能の測定を行う際の右眼用画像および左眼用画像の相対的位置の変化速度が異なる複数回の測定を行い、被測定者2の眼の追従能力が予め設定されている複数段階のどの程度に該当するかを判定する。
 右眼用画像および左眼用画像の相対位置変化が高速であっても、算出された所定のパラメータ値が低速時のそれとほとんど変わらない場合には、被測定者2の眼の追従能力の程度が高いと考えられる。一般には、急激な変化より、低速で変化する視差に対応しやすいと考えられるため、ある低速な変化において取得されたパラメータ値を基準とし、その速度依存性を用いて被測定者2の眼の追従能力の程度を判定することも可能である。
 以上のように構成されたスマートフォン110には、有線又は無線の通信線を介して、PC130が接続されている。PC130には、ディスプレイ140が接続されている。
 なお、以上に説明したシステム構成において、スマートフォン110とPC130とが常時通信可能であれば、スマートフォン110において実現される呈示制御部113a、タイミング検知部113b、パラメータ値算出部113c、および、追従能力判定部113dとしての機能、並びに、入力装置115としての機能は、PC130において実現されるものであってもよい。
 また、以上に説明したシステム構成において、眼鏡レンズ製造システム1の構成要素が全て同じ場所に設置されている場合、図1に示すPC30と図2又は図3に示すPC130とが単一のPCであってもよい。また、図1に示す入力装置20と図2又は図3に示す入力装置115とが単一の入力装置であってもよい。また、図1に示すディスプレイ40と図2又は図3に示すディスプレイ140とが単一のディスプレイであってもよい。
<両眼視機能測定の手順>
 次に、以上のように構成された両眼視機能測定システム10を用いて行う両眼視機能測定の手順、すなわち本実施形態の両眼視機能測定方法について、具体的な内容を説明する。
 両眼視機能の測定を行う場合には、スマートフォン110において両眼視機能測定プログラムが起動され、両眼視機能測定の各種指示を行うためのGUIが表示画面111に表示される。そして、オペレータによるGUI操作があると、両眼視機能測定プログラムは、そのGUI操作に従って測定用データを生成する。そして、スマートフォン110が支持筐体部112aによって支持されて被測定者2の眼前に位置すると、そのスマートフォン110は、測定用データを処理して、両眼視機能を測定するための右眼用画像および左眼用画像を生成し、表示画面111の右眼用画像領域111R又は左眼用画像領域111Lで表示する。これにより、両眼視機能の測定が開始される。
 両眼視機能測定プログラムは、両眼視機能に関する各種測定項目をサポートしており、各種測定項目についてのパラメータ値を測定結果として出力する。サポートするパラメータ値としては、例えば、輻湊範囲、左右眼上下開散許容値、第一の不等倍率許容値、第二の不等倍率許容値、左右眼回旋視差許容値等が挙げられる。オペレータは、両眼視機能測定を行うにあたり、GUI上の何れかの測定項目を選択する。
 また、オペレータは、測定条件として、年齢や視距離等を入力する。入力された測定条件は、メモリ114に記憶される。なお、視距離については、スマートフォン110又は支持筐体部112aが視距離の設定を可変にする機能を有していれば、必要に応じて視距離を変えてもよい。
 以下、上記に列挙した各測定項目が選択されたときの両眼視機能測定プログラムの処理の実行について説明する。
(「輻湊範囲」が選択された場合)
 両眼視機能測定プログラムは、被測定者2の輻湊範囲を測定する輻湊範囲測定モードに移行する。ここでいう輻湊範囲は、調節を伴わない輻湊である。ここで、眼球の輻湊(又は開散)と調節は、公知のドンダース図に示されるように本来的には連携して働く。そのため、輻湊を調節から分離して測定することは簡単ではない。なお、ドンダース図については、「石原忍著、鹿野信一改訂「小眼科学」改訂第17版、金原出版、(1925)p50」、「畑田豊彦著「奥行き情報と視覚の特性」視覚情報研究会、昭和49年4月23日、p12」、本出願人がした国際公開第2010/090144号パンフレット等に記載がある。ドンダース図中、原点を通る傾き1(角度45度)の直線は、ドンダース線である。ドンダース線は、斜視や斜位のない裸眼の被測定者が対象を見ているときの輻湊と調節との連携を表している。ドンダース線の左右には、輻湊(又は開散)限界値を示すドンダース曲線がプロットされている。ドンダース線の一点から左右のドンダース曲線までの値であって右側(輻湊角が大となる側)が虚性相対輻湊に分類され、左側(輻湊角が小となる側)が実性相対輻湊に分類される。
 図4は、両眼視機能測定プログラムによる輻湊範囲測定モードで実行される処理のフローチャートを示す図である。図5は、輻湊範囲測定モードの実行中に表示画面に表示される画像の遷移図である。以降の本明細書中の説明並びに図面において、処理ステップは「S」と省略して記す。
 輻湊範囲測定モードに移行すると、図5(a)に示すように、左眼用画像200Lと右眼用画像200Rが、表示画面111の左眼用画像領域111Lと右眼用画像領域111Rに表示される(図4のS1)。左眼用画像200Lと右眼用画像200Rは、サイズや色、形状等を含め、同一の画像である。左眼用画像200Lと右眼用画像200Rは、被測定者2が測定に集中できるように単純な幾何学形状であることが望ましい。図例では、左眼用画像200Lおよび右眼用画像200Rが三角形状の図形である場合を示しているが、これに限定されることはなく、例えば、同一方向に同一長さで延びる直線(線分)の図形や、その他の幾何学形状の図形等であってもよい。
 また、被測定者2には、画像が二重に見えた時点で入力装置115の操作キーを押すなどの所定の操作を行うように指示が出される。指示は、例えば右眼用画像領域111R又は左眼用画像領域111Lの少なくとも一方に表示される。また、オペレータが被測定者2に直接指示を出してもよい。輻湊範囲以外の他の測定項目を測定する場合にも同じ指示が出される。
 図4のS2の処理では、図5(a)に示すように、左眼用画像200Lと右眼用画像200Rとを右眼用画像領域111Rおよび左眼用画像領域111Lのそれぞれに表示し、被測定者2にとって各画像が二重に見えるか確認する。二重に見えた場合は、図4のS3の処理において、オペレータが二重に見えない位置まで右眼用画像領域111Rおよび左眼用画像領域111Lを離間もしくは接近を行い、これを二重に見えなくなるまで繰り返す。
 具体的には、例えば離間の場合であれば、図5(c)に示すように、左眼用画像200Lと右眼用画像200Rが右眼用画像領域111Rおよび左眼用画像領域111Lの水平方向(図5(c)の矢印方向)に移動して離間する。離間する画像の動きは、連続的変化又は段階的変化で描画される。左眼用画像200Lと右眼用画像200Rの離間は、入力装置115の所定の操作キーが押されるまで継続する(図4のS2:NO)。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量(以下、説明の便宜上、「第一の相対輻湊測定位置」と記す。)がメモリ114に記憶される(図4のS4)。なお、左眼用画像200Lと右眼用画像200Rの位置は相対的に離れればよい。そのため、左眼用画像200L又は右眼用画像200Rの一方は、測定中、位置が固定されていてもよい。後述の左右眼上下開散許容値測定モードにおいても同様である。
 離間する画像の提示時間は、被測定者の追従能力に応じて適切に設定される。
 図4のS5の処理では、左眼用画像200Lと右眼用画像200Rが第一の相対輻湊測定位置から右眼用画像領域111Rおよび左眼用画像領域111Lの水平方向(図5(b)の矢印方向)に移動して接近する。左眼用画像200Lと右眼用画像200Rの接近は、入力装置115の所定の操作キーが押されるまで継続する(図4のS6:YES)。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量(以下、説明の便宜上、「第二の相対輻湊測定位置」と記す。)がメモリ114に記憶される(図4のS7)。
 次に、図4のS8の処理では、左眼用画像200Lと右眼用画像200Rを、第二の相対輻湊測定位置から第一の相対輻湊測定位置に戻す。そして、第一の相対輻湊測定位置に戻した後、図4のS9の処理において、その第一の相対輻湊測定位置から左眼用画像200Lと右眼用画像200Rが右眼用画像領域111Rおよび左眼用画像領域111Lの水平方向(図5(c)の矢印方向)に移動して離間する。左眼用画像200Lと右眼用画像200Rの離間は、入力装置115の所定の操作キーが押されるまで継続する(図4のS10:YES)。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量(以下、説明の便宜上、「第三の相対輻湊測定位置」と記す。)がメモリ114に記憶される(図4のS11)。図4のS5あるいはS9とS8の処理の順番は、次のように変更することも可能である。例えば、図6に示すように、左右の視差画像を接近あるいは離間させる前に(S5,S9)、視差画像を第一の相対輻湊測定位置に戻す操作を都度行うことによって(S8)、輻湊の履歴効果を含まない条件下で相対輻湊を測定することができる(S12)。その際、接近量および離間量については、直前の判定において2つに見えていない場合にはその直前の量に対して増加させることが好ましいから、それぞれの視差画像を移動させる前に視差画像の接近量または離間量を決定するステップ(S13,S14)を設けてもよい。
 図4のS12の処理では、第一の相対輻湊測定位置、第二の相対輻湊測定位置、第三の相対輻湊測定位置および視距離を用いて、第一の輻湊角(開散限界)と第二の輻湊角(輻湊限界)とが計算される。第一の輻湊角は、測定時の視距離における調節力に対応する実性相対輻湊を表す。第二の輻湊角は、測定時の視距離における調節力に対応する虚性相対輻湊を表す。視距離は測定中不変である。従って、被測定者2の調節力は測定中実質的に変化しない。そのため、実性相対輻湊および虚性相対輻湊が調節から分離して簡易かつ高精度に測定される。
 図4のS12の処理で求められた実性相対輻湊および虚性相対輻湊をドンダース図に適用すると、左右のドンダース曲線が推定される。すなわち、被測定者2の輻湊と調節との連携関係が求まる。ドンダース曲線は、年齢に依存して変化する。そのため、ドンダース曲線を推定する際、測定条件として入力した年齢を考慮すると尚よい。
 視距離を変更して輻湊範囲測定モードによる測定を行うと、異なる調節力が働いたときの実性相対輻湊および虚性相対輻湊が測定される。異なる視距離における輻湊範囲の測定を繰り返すほどドンダース曲線を推定するためのサンプルデータがより一層多く採取される。そのため、被測定者2の輻湊と調節との連携関係がより一層精度良く求められる。
 オペレータは、左眼用画像200Lと右眼用画像200Rの相対的変化(移動、回転、変倍等)の速さを適宜設定変更することができる。但し、設定変更可能な相対的変化の速さは、所定の範囲内の速さに収めることが望ましい。相対的変化の速さの上限は、例えば被測定者が融像できなくなるタイミングと入力装置115の所定の操作キーを押すタイミングとのタイムラグによる誤差が所定の許容値に収まる程度の値に設定される。一方、下限は、例えば融像が強く働いて融像範囲が自然な眼球運動内で想定される範囲を超えて拡がる前に画像の表示が変化する程度の値に設定される。上下限の具体的設定値は、例えば実験等を重ねた上で決められる。
 なお、両眼視機能測定プログラムが追従能力判定部113dとしての機能を実現する場合であれば、左眼用画像200Lおよび右眼用画像200Rの相対位置変化の速度を変えて、所定パラメータ値である輻湊範囲の値を複数取得することによって、呈示画像の位置変化に対する被測定者2の眼の追従能力の程度を判定するようにしてもよい。このようにすれば、被測定者2の眼の追従能力の程度を左眼用画像200Lと右眼用画像200Rの移動速度に反映されることが可能となるので、被測定者2が無理なく眼球運動を行うことができ、その結果として、被測定者2の両眼視機能を高精度に測定することが実現可能となる。
 左眼用画像200Lと右眼用画像200Rの離間又は接近は、輻湊範囲の測定を迅速かつ高精度に行うため複数回行ってもよい。例えば一回目の測定(以下、説明の便宜上、「事前測定」と記す。)では、左眼用画像200Lと右眼用画像200Rを高速に離間又は接近させて融像限界の大凡の位置を特定する。二回目の測定(以下、説明の便宜上、「本測定」と記す。)では、事前測定で特定された大凡の位置周辺で左眼用画像200Lと右眼用画像200Rを遅い速度(但し、融像が強く働かない程度の速度)で離間又は接近させる。本測定では、呈示画像の移動速度が遅いため、被測定者2が融像できなくなるタイミングと入力装置115の所定の操作キーを押すタイミングとのタイムラグによる誤差が抑えられて測定精度が向上する。また、本測定の測定区間は、事前測定で特定された融像限界の大凡の位置周辺に限定される。そのため、輻湊範囲の測定は、事前測定と本測定を両方行う場合であっても速やかに行われる。輻湊範囲以外の他の測定項目についても迅速かつ高精度な測定を行うため、事前測定と本測定の両方を行ってもよい。
 輻湊範囲測定モードで測定された実性相対輻湊と虚性相対輻湊から被測定者2の輻湊範囲のパラメータ値が求まる。かかるパラメータ値に基づいて例えば被測定者2が持つ潜在的なズレ(内斜視や外斜視)が推定される。輻湊範囲以外の他の測定項目についても同様にパラメータ値の推定が可能である。
(「左右眼上下開散許容値」が選択された場合)
 両眼視機能測定プログラムは、被測定者2の左右眼上下開散許容値を測定する左右眼上下開散許容値測定モードに移行する。左右眼上下開散許容値は、立体視可能な左右眼の上下開散の許容値である。図7は、両眼視機能測定プログラムによる左右眼上下開散許容値測定モードで実行される処理のフローチャートを示す図である。図8は、左右眼上下開散許容値測定モードの実行中に表示画面に表示される画像の遷移図である。以降の本明細書中の説明並びに図面において、同一の又は同様の処理には同一の又は同様の符号を付して説明を簡略又は省略する。
 左右眼上下開散許容値測定モードに移行して画像表示が行われると、左眼用画像200Lと右眼用画像200Rが離れた状態で見えるように、表示画面111の右眼用画像領域111Rおよび左眼用画像領域111Lで表示される(図7のS1、図8(a))。次に、図8(b)に示すように、左眼用画像200Lと右眼用画像200Rが表示画面の垂直方向(図8(b)の矢印方向)に移動して離間する(図7のS12)。被測定者2により所定の操作キーが押されると(図7のS3:YES)、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量(以下、説明の便宜上、「第一の左右眼上下開散許容値測定位置」と記す。)がメモリ114に記憶される(図7のS14)。
 図7のS15の処理では、左眼用画像200Lと右眼用画像200Rが第一の左右眼上下開散許容値測定位置から表示画面の垂直方向(図8(b)の矢印方向と逆方向であって図8(c)の矢印方向)に移動して接近し、更に、図8(c)に示すように離間する。被測定者2により所定の操作キーが押されると(図7のS6:YES)、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量(以下、説明の便宜上、「第二の左右眼上下開散許容値測定位置」と記す。)がメモリ114に記憶される(図7のS17)。
 図7のS18の処理では、第一および第二の左右眼上下開散許容値測定位置と視距離に基づいて左右眼上下開散許容値、および当該視距離において対象物を融像できる上下方向の範囲が計算される。視距離を変更して左右眼上下開散許容値測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の左右眼上下開散許容値が測定される。
(「第一の不等倍率許容値」が選択された場合)
 第一の不等倍率許容値は、立体視可能な左右眼の不等倍率の許容値である。不等倍率に対して眼鏡レンズの処方を行うか否かは、一般に左右の視力差が2ディオプター以上あるかどうかを判断基準として杓子定規に決められている。ところが、患者には個人差があるため、左右の視力差が2ディオプター未満であっても融像することが困難な場合がある。またこれとは逆に、左右の視力差が2ディオプター以上あっても融像が困難でない場合もある。以下に説明する第一の不等倍率許容値測定モードでは、左右の視力差を加味した融像の可否が実測される。そのため、第一の不等倍率許容値測定モードによる測定の結果を利用すると、個人差を考慮した不等倍率に対する最適な処方が可能になる。
 両眼視機能測定プログラムは、被測定者2の第一の不等倍率許容値を測定する第一の不等倍率許容値測定モードに移行する。図9は、両眼視機能測定プログラムによる第一の不等倍率許容値測定モードで実行される処理のフローチャートを示す図である。図10は、第一の不等倍率許容値測定モードの実行中に表示画面に表示される画像の遷移図である。
 第一の不等倍率許容値測定モードに移行すると、図10(a)に示すように、左眼用画像200Lと右眼用画像200Rが被測定者2の融像範囲であって僅かにずれた位置に表示される(図9のS21)。左眼用画像200Lと右眼用画像200Rの表示位置は、輻湊範囲や左右眼上下開散許容値の測定結果を参照して決められる。輻湊範囲や左右眼上下開散許容値の測定が行われていない場合は、オペレータが左眼用画像200Lと右眼用画像200Rの位置を被測定者2の融像範囲に収まるように微調節する。
 図9のS22の処理では、図10(b)に示すように、左眼用画像200Lが右眼用画像200Rに対して拡大表示される。左眼用画像200Lの拡大率は、縦横比固定であり、連続的変化で又は段階的変化で描画される。左眼用画像200Lの表示の拡大は、入力装置115の所定の操作キーが押されるまで継続する(図9のS22、S3:NO)。被測定者2により所定の操作キーが押されると(図9のS3:YES)、その時点の左眼用画像200Lと右眼用画像200Rとの表示倍率比(以下、説明の便宜上、「第一の表示倍率比」と記す。)がメモリ114に記憶される(図9のS24)。なお、第一の不等倍率許容値測定モードにおいて、左眼用画像200Lと右眼用画像200Rの表示倍率比は相対的に変化すればよい。そのため、画像に与えられる変化は、拡大に代えて縮小であってもよい。また、測定中、左眼用画像200Lと右眼用画像200Rを異なる変倍率で同時に拡大又は縮小させてもよい。後述の第二の不等倍率許容値測定モードにおいても同様である。
 図9のS25の処理では、図10(c)に示すように、右眼用画像200Rが左眼用画像200Lに対して拡大表示される。被測定者2により所定の操作キーが押されると(図9のS6:YES)、その時点の左眼用画像200Lと右眼用画像200Rとの表示倍率比(以下、説明の便宜上、「第二の表示倍率比」と記す。)がメモリ114に記憶される(図9のS27)。
 図9のS28の処理では、第一および第二の表示倍率比と視距離に基づいて当該視距離における第一の不等倍率許容値が計算される。視距離を変更して第一の不等倍率許容値測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の第一の不等倍率許容値が測定される。
(「第二の不等倍率許容値」が選択された場合)
 両眼視機能測定プログラムは、被測定者2の第二の不等倍率許容値を測定する第二の不等倍率許容値測定モードに移行する。第二の不等倍率許容値は、立体視可能な左右眼の特定方向に限定した不等倍率の許容値である。図11は、両眼視機能測定プログラムによる第二の不等倍率許容値測定モードで実行される処理のフローチャートを示す図である。図12は、第二の不等倍率許容値測定モードの実行中に表示画面に表示される画像の遷移図である。
 第二の不等倍率許容値測定モードに移行して画像表示が行われると(図11のS21、図12(a))、左眼用画像200Lの特定方向の表示が右眼用画像200Rに対して拡大される(図11のS32)。図12(b)の画像例では、左眼用画像200Lの画面垂直方向の表示倍率のみ拡大する。左眼用画像200Lの拡大は、連続的変化で又は段階的変化で描画される。左眼用画像200Lの表示の拡大は、入力装置115の所定の操作キーが押されるまで継続する(図11のS32、S3:NO)。被測定者2により所定の操作キーが押されると(図11のS3:YES)、その時点の左眼用画像200Lと右眼用画像200Rの画面垂直方向の表示倍率比(以下、説明の便宜上、「第一の特定方向の表示倍率比」と記す。)がメモリ114に記憶される(図11のS34)。
 図11のS35の処理では、変倍対象の全ての特定方向について左眼用画像200Lの拡大が行われたか否かが判定される。本実施形態では、変倍対象の方向は画面垂直方向と画面水平方向の2方向である。そのため、変倍対象の方向が画面水平方向に変更される(図11のS35:NO、S36)。次いで、図12(c)に示されるように、左眼用画像200Lの画面水平方向の表示が右眼用画像200Rに対して拡大される。被測定者2により所定の操作キーが押されると(図11のS3:YES)、その時点の左眼用画像200Lと右眼用画像200Rの画面水平方向の表示倍率比(以下、説明の便宜上、「第二の特定方向の表示倍率比」と記す。)がメモリ114に記憶される(図11のS34)。
 図11のS38の処理では、第一および第二の特定方向の表示倍率比と視距離に基づいて当該視距離における第二の不等倍率許容値が計算される。視距離を変更して第二の不等倍率許容値測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の第二の不等倍率許容値が測定される。変倍対象の方向は、画面水平方向又は画面垂直方向の2方向に限らず、他の方向を含んでもよい。
(「左右眼回旋視差許容値」が選択された場合)
 融像回旋は、輻湊等の視線方向が平行でないときに発生することがある。遠方視の場合の眼球の回旋は、リスティング法則(Listing’s Law)に基づく。リスティング法則は、眼球が空間上のある方向に向いたときの姿勢を定める法則である。眼球の姿勢とは、眼球の横方向と縦方向の向きを指す。眼球の姿勢が定まらなければ、網膜像の上下左右が定まらない。眼球の姿勢は、視線方向、すなわち眼球の光軸方向だけでは一義的に決まらない。眼球の姿勢は、視線方向が確定しただけでは依然として視線を軸に回転する全ての方向を取りうる。
 リスティング法則は、無限遠方の任意の視線方向に向けた眼球の姿勢を定める。リスティング法則については、例えば「視覚情報処理ハンドブック」p.405に、「片眼のどんな回転も1つの平面(リスティング平面)内の軸を中心にして起こるとみなしうる」と記載されている。
 リスティング法則の上記記載について、図13に示す座標系を用いて説明する。図13に示される座標系は、眼球の回旋中心である点Rを原点とした座標系であり、正面(水平前方)から眼に入る方向がX軸方向と定義され、X軸方向と直交する垂直方向がY軸方向と定義され、X軸方向と直交する水平方向がZ軸方向と定義される。Y-Z平面は、リスティング平面である。
 任意方向への眼球回旋後の姿勢は、点Rを含むリスティング平面内の直線を軸にした回転と同じである。図13においては、この回転軸となる直線の一例をY軸とZ軸との間(Y-Z平面上)に示している。回転軸は、第1眼位(X軸方向)、回転後の視線方向の何れに対しても直交する。ここで、図示しない方向ベクトル(L,M,N)へ眼球回旋する場合を考える。この場合、回旋後の眼球座標系のX軸方向、Y軸方向、Z軸方向のそれぞれのベクトルは、次式(1)で計算される。
Figure JPOXMLDOC01-appb-M000001
 リスティング法則は、片眼が無限遠方の物体に対して眼球の姿勢を定めるものとしては正しい。また、例えば無限遠方の物体を視ていて体を傾けた場合には、左眼と右眼とで眼球の姿勢が同じで、眼球の回旋も同様である。これに対して、無限遠方でない物体を両眼で視る場合には、左眼と右眼とで眼球の姿勢が異なることがある。
 図14A、14Bは、両眼視の場合の左右の眼の視線方向を説明するための図である。図14A、14Bの各図中、破線は、左眼の眼球51Lと右眼の眼球51Rとの中間位置に配された仮想的な眼球55を示している。無限遠方物体を両眼視する場合、図14Aに示されるように、眼球51Lと眼球51Rとが同じ視方向に向く。左右の眼球が共にリスティング法則に従うため、回旋した後の姿勢も同じである。このとき、左右眼それぞれの網膜像に差異は生じない。
 一方、有限距離の物体(点A)を視る場合は、図14Bに示されるように、輻湊が必要である。この場合、眼球51Lと眼球51Rの視方向が異なるため、眼球の回旋量が左右で異なる。図14Bでは、点Aが左前方にある。そのため。眼球51Rの回旋量が眼球51Lの回旋量よりも多い。
 リスティング法則に基づく眼球回旋では、回旋後の眼球姿勢、つまり、回旋後のY軸とZ軸の各方向ベクトルは、式(1)に示される視方向ベクトルに依存する。左眼と右眼の視方向ベクトルが異なる場合、回旋後のY軸とZ軸の各方向ベクトルは、左右の眼で一致しない。そのため、網膜像の回転ずれが起こる。網膜像の回転ずれを解消するためには、左右の眼において視線周りの回旋がそれぞれ必要である。この視線周りの回旋が融像回旋である。
 融像回旋が発生すると、左右眼に回旋視差が生じる。両眼視機能測定プログラムでは、立体視可能な左右眼の回旋視差の許容値である左右眼回旋視差許容値を測定することができる。両眼視機能測定プログラムは、測定項目「左右眼回旋視差許容値」が選択されると、被測定者2の左右眼回旋視差許容値を測定する左右眼回旋視差許容値測定モードに移行する。図15は、両眼視機能測定プログラムによる左右眼回旋視差許容値測定モードで実行される処理のフローチャートを示す図である。図16は、左右眼回旋視差許容値測定モードの実行中に表示画面に表示される画像の遷移図である。
 左右眼回旋視差許容値測定モードに移行して画像表示が行われると(図15のS21、図16(a))、図16(b)に示すように、左眼用画像200Lが反時計回りに回転する(図15のS42)。左眼用画像200Lの回転は、連続的変化で又は段階的変化で描画される。左眼用画像200Lの回転は、入力装置115の所定の操作キーが押されるまで継続する(図15のS42、S3:NO)。被測定者2により所定の操作キーが押されると(図15のS3:YES)、その時点の左眼用画像200Lと右眼用画像200Rとの回転角度差(以下、説明の便宜上、「第一の回転角度差」と記す。)がメモリ114に記憶される(図15のS44)。なお、画像の回転中心は、当該画像の重心とする。左右眼回旋視差許容値測定モードにおいて、左眼用画像200Lと右眼用画像200Rの回転角度差は相対的に変化すればよい。そのため、測定中、左眼用画像200Lと右眼用画像200Rを異なる速度で又は異なる方向に同時に回転させてもよい。
 図15のS45の処理では、図16(c)に示すように、左眼用画像200Lが時計回りに回転する。被測定者2により所定の操作キーが押されると(図15のS6:YES)、その時点の左眼用画像200Lと右眼用画像200Rとの回転角度差(以下、説明の便宜上、「第二の回転角度差」と記す。)がメモリ114に記憶される(図15のS47)。
 図15のS48の処理では、第一および第二の回転角度差と視距離に基づいて当該視距離における左右眼回旋視差許容値が計算される。視距離を変更して左右眼回旋視差許容値測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の左右眼回旋視差許容値が測定される。異なる視距離ごとの左右眼回旋視差許容値を測定することにより、例えば累進屈折眼鏡レンズを処方する場合に遠用部と近用部で異なる乱視軸を処方して乱視を最適に矯正することができる。
(他の測定について)
 両眼視機能測定システム10を用いて立体視の機能を測定することもできる。立体視の測定では、例えば形状の異なる二種類の視差画像が表示画面111の右眼用画像領域111Rおよび左眼用画像領域111Lに表示される。視差画像は、被測定者2が測定に集中できるように○や△等の単純な幾何学形状であることが望ましい。本実施形態では、二種類の視差画像は、○画像と△画像とする。○画像は、△画像よりも視差が大きい。そのため、被測定者2には、○画像が手前に視え、△画像が奥に視える。次いで、○画像と△画像の少なくとも一方の視差が連続的に又は段階的に変えられる。被測定者2は、○画像と△画像の奥行きが感じられなくなった時点や二重像が見えた時点等で入力装置115の所定の操作キーを押す。メモリ114には、所定の操作キーが押された時点の画像の視差が記憶される。CPU113は、記憶された画像の視差および視距離に基づいて被測定者2が立体視できる限界を計算する。
(測定項目の複合的な測定について)
 上述した各種測定モードでは、一つの測定項目が測定される。別の測定モードでは、複数(例えば輻湊範囲、左右眼上下開散許容値、第一の不等倍率許容値、第二の不等倍率許容値、左右眼回旋視差許容値のうち少なくとも二つ)の測定項目を同時に測定する複合的な測定を行ってもよい。特に、密接不可分な複数の測定項目を同時に測定した場合、各測定項目単独の測定結果だけでは把握できない測定結果が得られる可能性がある。オペレータは、同時に測定する測定項目を任意に選択することができる。測定項目の幾つかの組み合わせは、予め用意されていてもよい。以下に、複合的な測定例を3例説明する。
(輻湊範囲-左右眼上下開散許容値の複合的測定について)
 例えば輻湊範囲と上下開散は相互作用が強い。そこで、第一の複合的な測定モードでは、左眼用画像200L又は右眼用画像200Rの少なくとも一方を画面斜め方向に連続的に又は段階的に移動させて輻湊範囲と左右眼上下開散許容値の同時測定を行う。ここで、画面斜め方向は、画面水平方向又は画面垂直方向以外のあらゆる方向であり、画面水平方向成分と画面垂直方向成分の両成分を含む。すなわち、左眼用画像200L又は右眼用画像200Rには、輻湊範囲測定モード時と左右眼上下開散許容値測定モード時の各変化パターン(画面水平方向、画面垂直方向の移動)を合成した表示の変化(以下、説明の便宜上、「複合的変化」と記す。)が与えられる。画面斜め方向の角度は、オペレータが設定してもよく又は両眼視機能測定プログラムで予め定められていてもよい。
 図17は、第一の複合的な測定モードにおける画像の表示例である。第一の複合的な測定モードのフローチャートは、輻湊範囲測定モード等のフローチャートと同様であるため省略する。図17の例によれば、左眼用画像200Lが図中破線位置から画面斜め方向に移動する。画面斜め方向の移動は、入力装置115の所定の操作キーが押されるまで継続する。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量がメモリ114に記憶される。一連の測定において、左眼用画像200L又は右眼用画像200Rを異なる画面斜め方向に移動させて位置ずれ量データを複数採取してもよい。メモリ114に記憶された各位置ずれ量と視距離に基づいて当該視距離における輻湊範囲と左右眼上下開散許容値の複合的な測定結果が計算される。視距離を変更して第一の複合的な測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の複合的な測定結果が得られる。
(輻湊範囲-左右眼上下開散許容値-第二の不等倍率許容値(又は第一の不等倍率許容値)の複合的測定について)
 例えば輻湊範囲、上下開散、左右眼の不等倍率は相互作用が強い。そこで、第二の複合的な測定モードでは、左眼用画像200L又は右眼用画像200Rの少なくとも一方を連続的に又は段階的に画面斜め方向に移動させると共に拡大又は縮小表示する。画像の拡大又は縮小が特定方向に限定されている場合は第二の不等倍率許容値の測定となり、縦横比固定である場合は第一の不等倍率許容値の測定となる。左眼用画像200L又は右眼用画像200Rには、輻湊範囲測定モード時、左右眼上下開散許容値測定モード時、第二の不等倍率許容値(又は第一の不等倍率許容値)測定モード時の各変化パターン(画面水平方向、画面垂直方向の移動、表示倍率の変更)を合成した複合的変化が与えられる。各変化パターンをどのような割合で与えるかは、オペレータが設定してもよく又は両眼視機能測定プログラムで予め定められていてもよい。
 図18は、第二の複合的な測定モードにおける画像の表示例である。第二の複合的な測定モードのフローチャートは、輻湊範囲測定モード等のフローチャートと同様であるため省略する。図18の例によれば、左眼用画像200Lが図中破線位置から画面斜め方向に移動すると共に画面垂直方向にのみ拡大する。左眼用画像200Lの移動および拡大は、入力装置115の所定の操作キーが押されるまで継続する。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量および画面垂直方向の表示倍率比(以下、説明の便宜上、「画像変更状態」と記す。)がメモリ114に記憶される。一連の測定において、左眼用画像200L又は右眼用画像200Rの移動および拡大を異なるパターンで繰り返し行って画像変更状態データを複数採取してもよい。メモリ114に記憶された各画像変更状態と視距離に基づいて当該視距離における輻湊範囲、左右眼上下開散許容値、第二の不等倍率許容値(又は第一の不等倍率許容値)の複合的な測定結果が計算される。視距離を変更して第二の複合的な測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の複合的な測定結果が得られる。
(輻湊範囲-左右眼回旋視差許容値の複合的測定について)
 融像回旋は、上述したように、輻湊に伴って発生する。そこで、第三の複合的な測定モードでは、左眼用画像200L又は右眼用画像200Rの少なくとも一方を連続的に又は段階的に画面水平方向に移動させると共に時計回り又は反時計回りに回転させる。すなわち、左眼用画像200L又は右眼用画像200Rには、輻湊範囲測定モード時と左右眼回旋視差許容値測定モード時の各変化パターン(画面水平方向の移動、画像重心を中心とした回転)を合成した複合的変化が与えられる。各変化パターンをどのような割合で与えるかは、オペレータが設定してもよく又は両眼視機能測定プログラムで予め定められていてもよい。
 図19は、第三の複合的な測定モードにおける画像の表示例である。第三の複合的な測定モードのフローチャートは、輻湊範囲測定モード等のフローチャートと同様であるため省略する。図19の例によれば、左眼用画像200L、右眼用画像200Rはそれぞれ、画面水平方向に移動して離間しながら反時計回り、時計回りに回転する。左眼用画像200Lと右眼用画像200Rの移動および回転は、入力装置115の所定の操作キーが押されるまで継続する。被測定者2により所定の操作キーが押されると、その時点の左眼用画像200Lと右眼用画像200Rの位置ずれ量および回転角度差がメモリ114に記憶される。一連の測定において、左眼用画像200L又は右眼用画像200Rの移動および回転を異なるパターンで繰り返し行って位置ずれ量および回転角度差データを複数採取してもよい。メモリ114に記憶された各位置ずれ量および回転角度差と視距離に基づいて当該視距離における輻湊範囲と左右眼回旋視差許容値の複合的な測定結果が計算される。視距離を変更して第三の複合的な測定モードによる測定を行うと、異なる調節力を働かせたとき(例えば近方視や遠方視したとき)の複合的な測定結果が得られる。
(側方視を考慮した測定について)
 上述した各測定モードでは、左眼用画像200Lと右眼用画像200Rが表示画面の中央に表示される。そのため、被測定者2が正面視した状態での測定結果しか得られない。そこで、各測定モードにおいて正面視状態での測定を行った後、左眼用画像200Lと右眼用画像200Rの表示位置を例えば図20に示すように表示画面の周辺(画面左上隅)に移す。スマートフォン110を支持するが支持筐体部112aが被測定者2の頭に装着されており、それぞれの位置関係が固定的であるため、左眼用画像200Lと右眼用画像200Rを自ずと側方視する。この状態で測定を行うと、被測定者2が側方視した状態での測定結果が得られる。更に、左眼用画像200Lと右眼用画像200Rを画面周辺の別の位置(画面上端中央、画面右上隅、画面右端中央、画面右下隅・・・)に順に移して測定を行うと、様々な方向の側方視状態での測定結果が得られる。側方視は、例えば融像回旋を必ず伴うなど正面視と条件が異なる。そのため、正面視の場合と異なる測定結果が得られる。かかる測定結果も考慮して眼鏡レンズの設計を行うと、より一層好適な処方が可能になる。
<本実施形態の効果>
 本実施形態によれば、以下に示す1つまたは複数の効果が得られる。
(a)本実施形態においては、被測定者2の両眼視機能の測定にあたり、単一の可搬型表示画面111上で被測定者2に対して右眼用画像および左眼用画像(すなわち、視差画像)を呈示する。具体的には、例えばスマートフォン110の表示画面111を右眼用画像領域111Rと左眼用画像領域111Lとに分割して、右眼用画像領域111Rに右眼用画像を表示し、左眼用画像領域111Lに左眼用画像を表示することで、被測定者2に対する視差画像の呈示を行う。したがって、据置型3次元対応ビデオモニタ等のような大掛かりなシステム構成を必要とすることがなく、単一の表示画面111という非常に簡素な構成によって視差画像の呈示を行うことができ、被測定者2の両眼視機能の測定の簡便化を図る上で非常に好ましいものとなる。
 また、可搬型表示画面111を用いることで、その表示画面111を被測定者2の眼前に位置させることが非常に容易である。この点でも、被測定者2の両眼視機能の測定の簡便化を図る上で非常に好ましいものとなる。しかも、表示画面111を被測定者2の眼前に位置させた状態を保持することで、被測定者2の顔の方向に依存せず、正中面に対する左右の視差画像位置の誤差を一定に保つことができる。そのため、左右の視差画像位置の誤差がなくなるように表示画面111を被測定者2に装着させるのが好適である。
 さらには、可搬型表示画面111を用いた場合には、その周囲を遮蔽することで、実空間情報を遮断した空間内での視差画像の呈示を容易に実現することが可能となる。実空間情報を遮断した空間内で視差画像の呈示を行えば、呈示される視差画像以外に外界から奥行きと遠近感を感じる情報(実空間情報)を被測定者2が取得してしまうことがない。したがって、被測定者2に奥行き感覚を手掛かりとせずに、両眼視機能に関する能力を高精度に測定できる。
 つまり、本実施形態によれば、単一の可搬型表示画面111上で視差画像の呈示を行うことで、被測定者2の両眼視機能の測定を高精度に、かつ、非常に簡便に行うことができる。
(b)本実施形態においては、携帯情報端末の一種であるスマートフォン110の表示画面111を可搬型表示画面として用いて、被測定者の両眼視機能の測定を行う。そのため、単一の可搬型表示画面上での視差画像の呈示を容易かつ確実に実現することができ、そのための導入コストも抑えられる。したがって、両眼視機能の測定を高精度に、かつ、非常に簡便に行う上で好ましいものとなる。
(c)本実施形態で説明したように、被測定者2の両眼視機能についての所定パラメータ値として、被測定者2の輻湊範囲を特定する値を算出すれば、被測定者2の輻湊範囲の測定を高精度に、かつ、非常に簡便に行うことができる。そして、その測定結果を眼鏡レンズの設計パラメータの一つとして用いることで、被測定者2に適した眼鏡レンズを提供することが実現可能となる。
(d)本実施形態で説明したように、呈示画像の位置変化に対する被測定者2の眼の追従能力の程度を判定した上で、その判定結果に基づいて呈示画像の位置変化の速度を決定すれば、被測定者2の眼の追従能力の程度が左呈示画像の位置変化の速度に反映されるので、被測定者2が無理なく眼球運動を行うことができ、その結果として、被測定者2の両眼視機能を高精度に測定することが実現可能となる。
<変形例等>
 以上に本発明の実施形態を説明したが、上述した開示内容は、本発明の例示的な実施形態を示すものである。すなわち、本発明の技術的範囲は、上述の例示的な実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。
 例えば、上述の実施形態では、単一の可搬型表示画面上での視差画像の呈示を、スマートフォン110の表示画面111を利用して実現する場合を例に挙げたが、本発明がこれに限定されることはなく、タブレット端末やPDAのような他の携帯情報端末における表示画面を利用して視差画像の呈示を行うようにしてもよい。
 また、例えば、上述の実施形態では、左眼用画像200L又は右眼用画像200Rの移動速度、回転速度、変倍速度は何れも等速を前提に説明している。ただし、本発明がこれに限定されることはなく、左眼用画像200L又は右眼用画像200Rを加速度をつけて移動、回転、変倍させてもよい。
 1…眼鏡レンズ製造システム、10…両眼視機能測定システム、20…入力装置、30,130…PC、40,140…ディスプレイ、50…加工機、110…スマートフォン、111…表示画面、111R…右眼用画像領域、111L…左眼用画像領域、113…CPU、113a…呈示制御部、113b…タイミング検知部、113c…パラメータ値算出部、113d…追従能力判定部、200R…右眼用画像、200L…左眼用画像

Claims (11)

  1.  被測定者の右眼で視認させる右眼用画像と、前記被測定者の左眼で視認させる左眼用画像とを、単一の可搬型表示画面上で前記被測定者に対して呈示する視標呈示ステップと、
     前記右眼用画像および前記左眼用画像の呈示位置を相対的に変化させる呈示制御ステップと、
     前記呈示位置を変化させた際に前記被測定者が前記右眼用画像と前記左眼用画像とを融像できなくなるタイミングを検知するタイミング検知ステップと、
     前記タイミングを検知したときの前記右眼用画像と前記左眼用画像との相対位置関係に基づいて前記被測定者の両眼視機能についての所定パラメータ値を算出するパラメータ値算出ステップと、
     を備える両眼視機能測定方法。
  2.  前記可搬型表示画面として携帯情報端末が有する表示画面を用いて、前記右眼用画像および前記左眼用画像の呈示を行う
     請求項1に記載の両眼視機能測定方法。
  3.  前記所定パラメータ値は、前記被測定者の輻湊範囲を特定する値である
     請求項1または2に記載の両眼視機能測定方法。
  4.  前記右眼用画像および前記左眼用画像の相対位置変化の速度を変えて、前記所定パラメータ値を複数取得することによって、呈示画像の位置変化に対する前記被測定者の眼の追従能力の程度を判定する追従能力判定ステップ
     を備える請求項1~3のいずれか1項に記載の両眼視機能測定方法。
  5.  前記右眼用画像および前記左眼用画像は、同一の形状および大きさを有する図形によって構成されている
     請求項1~4のいずれか1項に記載の両眼視機能測定方法。
  6.  前記右眼用画像および前記左眼用画像に対する前記被測定者の視距離を設定する視距離設定ステップ
     を備える請求項1~5のいずれか1項に記載の両眼視機能測定方法。
  7.  請求項1~6のいずれか1項に記載の両眼視機能測定方法をコンピュータに実行させるための両眼視機能測定プログラム。
  8.  請求項1~6のいずれか1項に記載の両眼視機能測定方法を使用して被測定者の両眼視機能を測定するステップと、
     前記両眼視機能の測定結果に基づいて眼鏡レンズの光学設計値を決定するステップと、
     を備える眼鏡レンズの設計方法。
  9.  請求項8に記載の眼鏡レンズの設計方法を使用して眼鏡レンズを設計するステップと、
     前記眼鏡レンズの設計結果に従って眼鏡レンズを製造するステップと、
     を備える眼鏡レンズの製造方法。
  10.  被測定者の右眼で視認させる右眼用画像と、前記被測定者の左眼で視認させる左眼用画像とを、単一の可搬型表示画面上で前記被測定者に対して呈示する視標呈示部と、
     前記右眼用画像および前記左眼用画像の呈示位置を相対的に変化させる呈示制御部と、
     前記呈示位置を変化させた際に前記被測定者が前記右眼用画像と前記左眼用画像とを融像できなくなるタイミングを検知するタイミング検知部と、
     前記タイミングを検知したときの前記右眼用画像と前記左眼用画像との相対位置関係に基づいて前記被測定者の両眼視機能についての所定パラメータ値を算出するパラメータ値算出部と、
     を備える両眼視機能測定システム。
  11.  前記視標呈示部は、前記可搬型表示画面として携帯情報端末が有する表示画面を用いて、前記右眼用画像および前記左眼用画像の呈示を行うように構成されている
     請求項10に記載の両眼視機能測定システム。
PCT/JP2020/031783 2019-09-30 2020-08-24 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム WO2021065247A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/624,823 US20220257110A1 (en) 2019-09-30 2020-08-24 Binocular visual function measurement method, binocular visual function measurement program, eyeglass lens designing method, eyeglass lens manufacturing method, and binocular visual function measurement system
EP20870601.0A EP4039170A4 (en) 2019-09-30 2020-08-24 BINOCULAR VISION FUNCTION MEASUREMENT METHOD, BINOCULAR VISION FUNCTION MEASUREMENT PROGRAM, GLASSES LENS DESIGN METHOD, GLASSES LENS MANUFACTURING METHOD, AND BINOCULAR VISION FUNCTION MEASUREMENT SYSTEM
JP2021550420A JP7194842B2 (ja) 2019-09-30 2020-08-24 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム
CN202080058553.6A CN114302668A (zh) 2019-09-30 2020-08-24 双眼视功能测定方法、双眼视功能测定程序、眼镜镜片的设计方法、眼镜镜片的制造方法以及双眼视功能测定系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019180309 2019-09-30
JP2019-180309 2019-09-30

Publications (1)

Publication Number Publication Date
WO2021065247A1 true WO2021065247A1 (ja) 2021-04-08

Family

ID=75338201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/031783 WO2021065247A1 (ja) 2019-09-30 2020-08-24 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム

Country Status (5)

Country Link
US (1) US20220257110A1 (ja)
EP (1) EP4039170A4 (ja)
JP (1) JP7194842B2 (ja)
CN (1) CN114302668A (ja)
WO (1) WO2021065247A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI776459B (zh) * 2021-04-08 2022-09-01 上河國際有限公司 可快速自主篩選需求光學度數之裝置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086657A (ja) * 2006-10-04 2008-04-17 Tomoya Handa 立体視機能検査具、立体視機能検査装置、コンピュータプログラム、及び記録媒体
WO2010090144A1 (ja) 2009-02-05 2010-08-12 Hoya株式会社 眼鏡レンズの評価方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズの製造システム、及び眼鏡レンズ
JP2012095693A (ja) 2010-10-29 2012-05-24 Hoya Corp 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法
JP2015524943A (ja) * 2012-07-30 2015-08-27 エシロール エンテルナショナル (コンパニ ジェネラル ドプチック) 累進多焦点レンズの適合性を判定する方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
JP6024159B2 (ja) * 2012-03-30 2016-11-09 株式会社ニコン 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム
WO2019041352A1 (zh) * 2017-09-04 2019-03-07 深圳前海达闼云端智能科技有限公司 一种潘弄区测量方法、装置以及可穿戴显示设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086657A (ja) * 2006-10-04 2008-04-17 Tomoya Handa 立体視機能検査具、立体視機能検査装置、コンピュータプログラム、及び記録媒体
WO2010090144A1 (ja) 2009-02-05 2010-08-12 Hoya株式会社 眼鏡レンズの評価方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズの製造システム、及び眼鏡レンズ
JP2012095693A (ja) 2010-10-29 2012-05-24 Hoya Corp 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法
JP2015524943A (ja) * 2012-07-30 2015-08-27 エシロール エンテルナショナル (コンパニ ジェネラル ドプチック) 累進多焦点レンズの適合性を判定する方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHINOBU ISHIHARA: "Little Pupil Science", 1925, KANEHARA & CO. LTD., pages: 50
TOYOHIKO HATADA: "Depth Information and Characteristics of Vision", 23 April 1974, VISUAL INFORMATION RESEARCH GROUP, pages: I2

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI776459B (zh) * 2021-04-08 2022-09-01 上河國際有限公司 可快速自主篩選需求光學度數之裝置

Also Published As

Publication number Publication date
US20220257110A1 (en) 2022-08-18
EP4039170A4 (en) 2023-10-04
EP4039170A1 (en) 2022-08-10
CN114302668A (zh) 2022-04-08
JP7194842B2 (ja) 2022-12-22
JPWO2021065247A1 (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
US9259146B2 (en) Binocular visual performance measuring method, binocular visual performance measuring program, eyeglass lens design method and eyeglass lens manufacturing method
US20170188813A1 (en) Display device for demonstrating optical properties of eyeglasses
JP5414946B2 (ja) ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP5631157B2 (ja) 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法
WO2020028867A1 (en) Depth plane selection for multi-depth plane display systems by user categorization
EP2749207A1 (en) Eyeglasses-wearing simulation method, program, device, eyeglass lens-ordering system and eyeglass lens manufacturing method
CN103282859A (zh) 手势操作输入处理装置及手势操作输入处理方法
JP5715797B2 (ja) 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法
JP5937235B2 (ja) 固視ずれを補正するためのプリズム処方値取得システム、取得方法、取得装置およびプログラム
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
JP5098739B2 (ja) シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体
JP6095830B1 (ja) 視野情報収集方法および当該視野情報収集方法をコンピュータに実行させるためのプログラム
WO2021065247A1 (ja) 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム
JP6024159B2 (ja) 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム
WO2021065170A1 (ja) 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム
CN112748587B (zh) 眼镜镜片的设计方法、眼镜镜片的制造方法及眼镜镜片
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
McIntire et al. Microstereopsis is good, but orthostereopsis is better: Precision alignment task performance and viewer discomfort with a stereoscopic 3D display
KR100913022B1 (ko) 입체디스플레이 장치 및 운용방법
EP3739376A1 (en) Image forming device, eyeglass lens selection system, image forming method, and program
JP6216851B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018097477A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JPWO2016051430A1 (ja) 入出力装置、入出力プログラム、および入出力方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20870601

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021550420

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020870601

Country of ref document: EP

Effective date: 20220502