WO2022138102A1 - 眼科装置および眼科装置の制御プログラム - Google Patents

眼科装置および眼科装置の制御プログラム Download PDF

Info

Publication number
WO2022138102A1
WO2022138102A1 PCT/JP2021/044669 JP2021044669W WO2022138102A1 WO 2022138102 A1 WO2022138102 A1 WO 2022138102A1 JP 2021044669 W JP2021044669 W JP 2021044669W WO 2022138102 A1 WO2022138102 A1 WO 2022138102A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
inspected
image
face image
unit
Prior art date
Application number
PCT/JP2021/044669
Other languages
English (en)
French (fr)
Inventor
健二 中村
徹 有川
幸弘 樋口
Original Assignee
株式会社ニデック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニデック filed Critical 株式会社ニデック
Priority to CN202180086676.5A priority Critical patent/CN116669614A/zh
Priority to JP2022572074A priority patent/JPWO2022138102A1/ja
Publication of WO2022138102A1 publication Critical patent/WO2022138102A1/ja
Priority to US18/340,388 priority patent/US20230329551A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0075Apparatus for testing the eyes; Instruments for examining the eyes provided with adjusting devices, e.g. operated by control lever
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes

Definitions

  • the present disclosure relates to an ophthalmic apparatus for inspecting an eye to be inspected and a control program for the ophthalmic apparatus.
  • a technique is known in which an ophthalmic apparatus having an inspection unit for inspecting an eye to be inspected takes a facial image including the left and right eyes to be inspected and analyzes the photographed facial image to detect the position of the eye to be inspected.
  • automatic alignment shifts to precise alignment based on the image of the anterior eye portion of the anterior eye portion.
  • the position of the eye to be inspected may not be detected or the position of the eye to be inspected may be erroneously detected depending on the condition of the face of the subject and the examination environment.
  • the detection time of the eye to be inspected may be prolonged. In such a case, there is a problem that alignment is not performed well.
  • the technical subject of the present disclosure is to provide an ophthalmic apparatus and a control program for the ophthalmic apparatus that can perform good alignment.
  • An ophthalmologist device including an inspection unit for inspecting an eye to be inspected is a driving means for moving the inspection unit three-dimensionally relative to the eye to be inspected, and a first for taking a facial image including the left and right eyes to be inspected.
  • 1 imaging means a second imaging means for capturing an image of the anterior segment of the eye to be inspected, a position acquisition step for acquiring the position of the eye to be inspected specified based on the facial image, and an acquired eye to be inspected.
  • a first drive control step that controls the drive means so that the eye to be inspected is included in the imaging range of the second imaging means based on the position, and the first drive control step followed by the anterior segment image.
  • a control means for executing an adjustment process including a second drive control step for controlling the drive means and adjusting the relative position of the inspection unit with respect to the eye to be inspected, and detecting the position of the eye to be inspected by analyzing the face image.
  • the control program executed in the ophthalmologic apparatus provided with the second imaging means for photographing the eye image is executed by the control unit of the ophthalmology apparatus to identify the eye to be inspected based on the facial image.
  • an adjustment process including a second drive control step of controlling the drive means based on the front eye portion image and adjusting the relative position of the inspection unit with respect to the eye to be inspected is executed.
  • the ophthalmic apparatus is made to execute a control step to detect the position of the eye to be inspected by analyzing the facial image and a first acquisition step to acquire the position of the eye to be inspected specified by the detection as the detection position.
  • a second acquisition step of accepting an input operation of the position of the eye to be inspected with respect to the face image and acquiring the position of the eye to be inspected specified based on the input operation as a designated position is performed by the ophthalmologist. ..
  • 1 to 12 are diagrams illustrating the configuration of the ophthalmic apparatus according to the embodiment.
  • the ophthalmic apparatus (for example, the ophthalmic apparatus 1) includes an optometry means (for example, an examination unit 2) for inspecting an eye to be inspected, a driving means (for example, a driving unit 4), and a first imaging means (for example, a facial imaging unit). 3), a second imaging means (for example, anterior ocular segment photographing optical system 60), a control means (for example, a control unit 70), a first acquisition means (for example, a control unit 70), and a second acquisition means (for example).
  • a control unit 70 is provided.
  • the optometry means includes an inspection optical system (for example, a measurement optical system 20) for inspecting (including measurement) the eye to be inspected.
  • an inspection optical system for example, a measurement optical system 20 for inspecting (including measurement) the eye to be inspected.
  • the ophthalmic apparatus includes a base (for example, a base 5) on which an optometry means is mounted, a face support means (for example, a face support part 9), a detection means (for example, a control unit 70), and an input means (for example).
  • the operation unit 8), the notification means (for example, the display 7), the display means (for example, the display 7), and the discriminating means (for example, the control unit 70) may be provided at least one of them.
  • the face support means is configured to support the subject's face in a certain positional relationship with respect to the base.
  • the face support means may include a chin rest on which the subject's chin rests.
  • the driving means is configured to move the optometry means three-dimensionally relative to the eye to be inspected.
  • the optometry means can move in the X direction (horizontal direction), the Y direction (vertical direction), and the Z direction (front-back direction) with respect to the subject's eye supported by the face support means. It is installed.
  • the driving means moves the optometry means with respect to the base in the X, Y, and Z directions.
  • the ophthalmic apparatus may include a jaw pedestal driving means (for example, a jaw pedestal driving unit 12).
  • the chin rest driving means is provided in the face supporting means for driving the chin rest in the Y direction.
  • the driving means may include the jaw pedestal driving means as a configuration in which the optometry means is relatively moved in the Y direction with respect to the eye to be inspected.
  • the first photographing means is configured to capture a facial image including the left and right eyes to be inspected.
  • the second imaging means is configured to capture an image of the anterior segment of the eye to be inspected.
  • the second photographing means is configured to take an image of the anterior segment of the eye to be inspected at a higher magnification than the photographing magnification of the first photographing means.
  • the first photographing means may also be used as the second photographing means, and the photographing magnification may be changed.
  • the detecting means accurately detects the alignment state of the optometry means with respect to the eye to be inspected based on the image of the anterior eye portion by the second photographing means.
  • the display means displays a face image taken by the first shooting means.
  • the display means may display an anterior eye portion image taken by the second photographing means.
  • the display means may display the face image and the anterior eye portion image at the same time.
  • the control means may display the facial image larger than the anterior eye image when performing alignment based on the facial image.
  • the control means may display the anterior eye portion image larger than the facial image when the alignment shifts to the alignment based on the anterior eye portion image. For example, by alignment based on the facial image, the positional relationship between the optometry object and the optometry means is adjusted until the alignment based on the anterior ocular segment image becomes possible.
  • the alignment based on the anterior ocular segment image aligns the positional relationship between the eye to be inspected and the optometry means to a predetermined positional relationship.
  • the predetermined positional relationship is, for example, the positional relationship between the optometry subject and the optometry means that can be inspected by the optometry means.
  • the input means is provided in the ophthalmology device so that the examiner can specify and input the position corresponding to the eye to be inspected with respect to the face image obtained by the first photographing means.
  • the input means can input a designated position for roughly aligning the optometry means with respect to the eye to be inspected.
  • the input means comprises a pointing device (eg, at least one human interface such as a touch panel, joystick, mouse, keyboard, trackball, button, etc.).
  • the input means can input a designated position to the face image displayed on the display means at the time of rough alignment.
  • the face image for inputting the designated position may be a moving image taken by the first shooting means or a still image.
  • control means executes an adjustment process for adjusting the relative position of the examination unit with respect to the eye to be inspected by controlling the drive means.
  • the adjustment process executed by the control means includes a position acquisition step, a first drive control step, and a second drive control step.
  • the position acquisition step is a step of acquiring the position of the eye to be inspected specified based on the facial image.
  • the first drive control step is a step of controlling the drive means so that the acquired position of the eye to be inspected is included in the imaging range of the second imaging means.
  • the first drive control step may be a rough alignment for roughly aligning the inspection unit with respect to the eye to be inspected.
  • the second drive control step is a step of controlling the drive means based on the image of the anterior eye portion after the first drive control step and adjusting the relative position of the examination unit with respect to the eye to be inspected.
  • the second drive control step may be a precise alignment for precisely aligning the inspection unit with respect to the eye to be inspected.
  • the first acquisition means detects the position of the eye to be inspected by analyzing the face image, and acquires the position of the eye to be inspected specified by the detection as the detection position.
  • the second acquisition means accepts an input operation of the position of the eye to be inspected with respect to the face image, and acquires the position of the eye to be inspected specified based on the input operation as a designated position.
  • the second acquisition means may acquire the designated position based on the input operation of the eye position with respect to the face image displayed on the display means in the position acquisition step.
  • the control means executes the adjustment process of the first drive control step based on the position of the eye to be inspected acquired by the second acquisition means.
  • the second acquisition means detects the position of the eye to be inspected by using a part of the face image based on the coordinates specified by the input operation in the face image as an analysis target, and designates the position of the eye to be inspected specified by the detection. Get as a position.
  • a part of the face image to be analyzed is within a predetermined area with respect to the designated coordinates.
  • the display means may display the candidate for the position of the eye to be specified.
  • the second acquisition means acquires a candidate designated from a plurality of candidates as a designated position by an input operation of the examiner.
  • the condition of the subject's face for example, the subject's mascara, eyelashes, ptosis, etc.
  • the examination environment extraction taken by the first imaging means
  • Alignment can be performed well when the position of the eye to be inspected cannot be detected by the first acquisition means due to the background of the person's face, illumination light, ambient light, etc., or when the detection of the eye to be inspected takes a long time. ..
  • control means when the control means accepts the input operation of the designated position after the adjustment process using the detection position is started, the control means first receives the input operation based on the designated position regardless of the detection position by the first acquisition means.
  • a drive control step may be performed. This makes it possible to perform good alignment even when it takes a long time to detect the eye to be inspected by the first acquisition means.
  • the control means adjusts the positions of the left eye and the right eye for one of the left eye and the right eye to be examined first. It may be possible to acquire all at once in the position acquisition step in. Then, when the positions of the left eye and the right eye are collectively acquired in the position acquisition step, an input operation for each eye to be inspected may be required. As a result, the examiner can grasp that it is necessary to input the positions of the left eye and the right eye, and can prevent forgetting to input.
  • the control means performs the first drive control step by a predetermined procedure using a designated position corresponding to one eye to be inspected, and one eye. After the examination is completed, the first drive control step may be performed using the designated position corresponding to the opposite eye.
  • the ophthalmic apparatus may be provided with a discriminating means (for example, a control unit 70) for discriminating which of the left eye and the right eye corresponds to the two designated positions.
  • the discriminating means determines whether the two designated positions correspond to the left eye or the right eye based on the positional relationship between the two designated positions or the positional relationship of the designated positions with respect to the face image. Then, for example, the control means determines the designated position corresponding to the eye of the two designated positions to be inspected first from the two designated positions based on the left and right discrimination results, and determines the designated position corresponding to the eye of the first drive control step. Start execution. This makes it possible to perform good alignment in the examination of both eyes.
  • the predetermined procedure is, for example, a procedure for determining which of the left and right eyes to be inspected to perform the examination. Further, the predetermined procedure may be defined, for example, to perform the examination from the eye to be inspected to which the designated position is first input.
  • the control means may wait for the execution of the first drive control step until the two positions of the left eye and the right eye are input. For example, if the position of one of the left eye and the right eye is input and then the position of the opposite eye is not input within a predetermined time, the notification means for notifying the examiner to prompt the input operation of the position of the eye to be inspected. (For example, the display 7) may be provided in the ophthalmic apparatus. Alternatively, for example, if the opposite eye position is not input within a predetermined time, the control means may initiate execution of the first drive control step using one eye position.
  • the discriminating means discriminates between the left and right eyes to be inspected based on whether the designated position exists in the right eye region or the left eye region in the face image when there is one designated position input by the input operation. It may be configured to do so.
  • the control means shifts to the second drive control step after performing the first drive control step based on the input designated position, and after the inspection of one of the left and right eyes to be inspected is completed, the uninspected eye is not inspected.
  • the left-right direction in which the inspected unit is moved relative to the eye to be inspected is determined based on the determination result of the discriminating means, and the inspected portion is brought closer to the uninspected eye based on the determined direction.
  • the drive means is controlled, and the process shifts to the second drive control step. As a result, even if there is only one designated position, it is possible to perform good alignment in continuous inspection of both the left and right eyes.
  • the notification means when the notification means fails to acquire the detection position (that is, when an acquisition error occurs) in the adjustment process using the detection position, the notification means notifies the examiner to input the specified position. I do.
  • the examiner can know that the detection of the position of the eye to be inspected by the first acquisition means is defective, and can perform good alignment by performing the input operation of the position of the eye to be inspected. ..
  • control program software that performs the functions of the above-described embodiment may be supplied to the system or device via a network or various storage media. Then, a control unit (for example, a CPU or the like) of the system or the device can read and execute the program.
  • control program executed in the ophthalmologic device may be executed by the control unit of the ophthalmology device to cause the ophthalmology device to execute a control step for executing an adjustment process for adjusting the relative position of the examination unit with respect to the eye to be inspected. good.
  • control step includes various processing steps as described above performed by the control means.
  • an ophthalmic refractive force measuring device will be described as an example of an ophthalmic device, but a corneal curvature measuring device, an intraocular pressure measuring device, a fundus camera, an OCT (Optical Coherence Tomography), an SLO (Scanning Laser Ophthalmoscope), and a local area. It can also be applied to other ophthalmic devices such as a micro perimeter.
  • the ophthalmic appliance of this embodiment objectively measures, for example, the refractive power of the eye to be inspected.
  • the ophthalmologic device of this embodiment may be a device that performs measurement for each eye or may perform measurement for both eyes at the same time (binocular vision).
  • the ophthalmic apparatus mainly includes, for example, an examination unit, an imaging unit, a drive unit, and a control unit.
  • the ophthalmic apparatus 1 of the present embodiment mainly includes an examination unit 2, a face photographing unit 3, and a driving unit 4.
  • the inspection unit 2 inspects the eye to be inspected.
  • the inspection unit 2 may include, for example, an optical system for measuring the optical power of the eye to be inspected, the curvature of the cornea, the intraocular pressure, and the like. Further, the inspection unit 2 may be provided with an optical system or the like for photographing the anterior eye portion, the fundus, etc. of the eye to be inspected. In this embodiment, the inspection unit 2 for measuring the refractive power will be described as an example.
  • the face photographing unit 3 photographs, for example, the face of the eye to be inspected.
  • the face photographing unit 3 photographs, for example, a face including the left and right eyes to be inspected.
  • the drive unit 4 moves, for example, the inspection unit 2 and the face photographing unit 3 in the vertical, horizontal, front-back directions (three-dimensional directions) with respect to the base 5.
  • the ophthalmic appliance 1 of the present embodiment may include, for example, a housing 6, a display 7, an operation unit 8, a face support unit 9, and the like.
  • the housing 6 houses an inspection unit 2, a face photographing unit 3, a driving unit 4, and the like.
  • the display 7 displays, for example, a face image If by the face photographing unit 3, an anterior eye portion image Ia by the anterior eye portion photographing optical system 60, a measurement result, and the like.
  • the display of the display 7 is switched from the face image If to the anterior eye image Ia when the precision alignment (see FIG. 4) described later is started.
  • the face image If and the anterior eye portion image Ia may be displayed on the display 7 at the same time.
  • the control unit 70 may display on the display 7 which of the face image If and the anterior eye image Ia is selected by the examiner.
  • the ophthalmologic apparatus 1 is provided with a selection means (for example, a switch) for selecting whether to display the facial image If or the anterior eye portion image Ia.
  • a selection means for example, a switch
  • the display 7 may be provided integrally with the ophthalmologic device 1, or may be provided separately from the device, for example.
  • the ophthalmic appliance 1 may include an operation unit 8.
  • the operation unit 8 includes a pointing device capable of designating a position with respect to the screen of the display 7.
  • the pointing device may be various human interfaces such as a touch panel, a joystick, a mouse, a keyboard, a trackball, and a button.
  • Various operation instructions by the examiner are input to the operation unit 8.
  • the display 7 has a touch function
  • the operation unit 8 is also used as the display 7. That is, when the examiner touches the display 7, the ophthalmic appliance 1 is operated.
  • the operation unit 8 is used for various settings of the ophthalmic appliance 1 and operations at the start of measurement. Further, in the present embodiment, the operation unit 8 is used by the examiner to specify the coordinates (position) on the face image If displayed on the display 7. For example, a two-dimensional coordinate axis (x-axis and y-axis) is set in advance on the display 7, and a position (designated point) touched by the examiner is recognized by the control unit 70 (see FIG. 2).
  • the two-dimensional coordinate axes (x-axis and y-axis) on the display 7 are names given for explanation, and are in the X direction (horizontal direction) and the Y direction (vertical direction) in the direction in which the inspection unit 2 is driven. And the Z direction (front-back direction) is different.
  • control unit 70 recognizes the input by touch is the same as that described in Japanese Patent Application Laid-Open No. 2014-205878, so refer to this.
  • the face support portion 9 may include, for example, a forehead pad 10 and a chin rest 11.
  • the jaw pedestal 11 may be moved in the vertical direction by the drive of the jaw pedestal driving unit 12.
  • the ophthalmic appliance 1 includes a control unit 70.
  • the control unit 70 controls various controls of the ophthalmic appliance 1.
  • the control unit 70 includes, for example, a general CPU (Central Processing Unit) 71, a flash ROM 72, a RAM 73, and the like.
  • the flash ROM 72 stores a control program, initial values, and the like for controlling the ophthalmic appliance 1.
  • RAM temporarily stores various types of information.
  • the control unit 70 is connected to an inspection unit 2, a face photographing unit 3, a drive unit 4, a display 7, an operation unit 8, a chin rest drive unit 12, a storage unit (for example, a non-volatile memory) 74, and the like.
  • the storage unit 74 is, for example, a non-transient storage medium capable of retaining the stored contents even when the power supply is cut off.
  • a hard disk drive, a detachable USB flash memory, or the like can be used as the storage unit 74.
  • the face photographing unit 3 can photograph a face including the left and right eyes to be inspected, for example.
  • the face photographing unit 3 of this embodiment includes, for example, an photographing optical system 3A for photographing the face of a subject.
  • the photographing optical system 3A mainly includes, for example, an image pickup element 3Aa and an image pickup lens 3Ab.
  • the face photographing unit 3 is, for example, a non-telecentric optical system. As a result, for example, it is not necessary to provide a telecentric lens or the like, and the configuration can be simplified. In addition, the shooting range can be widened as compared with the telecentric optical system.
  • the face photographing unit 3 of this embodiment is moved together with the inspection unit 2 by the driving unit 4.
  • the face photographing unit 3 may be fixed to the base 5 and may not move, for example.
  • the face photographing unit 3 is provided above the inspection unit 2, but the position of the face photographing unit 3 is not limited to this.
  • the face photographing unit 3 may be provided below the inspection unit 2 or may be provided laterally.
  • the position of the face photographing unit 3 (optical axis of the photographing optical system 3A) in the left-right direction is the same as the optical axis L2 of the inspection unit 2, but the position is not limited to this. For example, assuming that the measurement is started from the right eye of the subject, the initial position of the examination unit 2 in the left-right direction is located on the right eye side when viewed from the subject, and the face photographing unit 3 is the jaw stand 11.
  • the face photographing unit 3 may be provided so that the measurement optical axis of the inspection unit 2 and the photographing optical axis of the face photographing unit 3 are coaxial. Further, the face photographing unit 3 may be arranged independently of the movement of the inspection unit 2.
  • the face photographing unit 3 is provided on the base 5 so as to be three-dimensionally driveable, and is three-dimensionally mounted on the eye to be inspected by a drive unit (second drive unit) different from the drive unit (first drive unit) 4. May be driven.
  • the first drive unit for moving the inspection unit 2 and the second drive unit for moving the face photographing unit 3 may be used in combination.
  • the inspection unit 2 measures, inspects, photographs, etc. the eye to be inspected.
  • the inspection unit 2 may include, for example, a measurement optical system for measuring the refractive power of the eye to be inspected.
  • the inspection unit 2 includes a measurement optical system 20, a fixation target presentation optical system 40, an alignment index projection optical system 50, and an observation optical system (anterior ocular segment photographing optical system) 60. , May be provided.
  • the measurement optical system 20 includes a projection optical system (projection optical system) 20a and a light receiving optical system 20b.
  • the projection optical system 20a projects a luminous flux onto the fundus Ef through the pupil of the eye to be inspected.
  • the light receiving optical system 20b takes out the reflected light flux (reflected light from the fundus) from the fundus Ef through the peripheral portion of the pupil in a ring shape, and captures a ring-shaped reflected image of the fundus mainly used for measuring the refractive power.
  • the projection optical system 20a has a light source 21, a relay lens 22, a hall mirror 23, and an objective lens 24 on the optical axis L1.
  • the light source 21 projects a spot-shaped light source image from the relay lens 22 onto the fundus Ef via the objective lens 24 and the central portion of the pupil.
  • the light source 21 is moved in the optical axis L1 direction by the moving mechanism 33.
  • the hole mirror 23 is provided with an opening through which the light flux from the light source 21 is passed through the relay lens 22.
  • the hole mirror 23 is arranged at a position optically conjugate with the pupil of the eye to be inspected.
  • the light receiving optical system 20b shares the hall mirror 23 and the objective lens 24 with the projection optical system 20a. Further, the light receiving optical system 20b includes a relay lens 26 and a total reflection mirror 27. Further, the light receiving optical system 20b has a light receiving diaphragm 28, a collimator lens 29, a ring lens 30, and an image pickup element 32 on the optical axis L2 in the reflection direction of the hall mirror 23. A two-dimensional light receiving element such as an area CCD can be used for the image pickup element 32.
  • the light receiving diaphragm 28, the collimator lens 29, the ring lens 30, and the image pickup element 32 are moved integrally with the light source 21 of the projection optical system 20a in the optical axis L2 direction by the moving mechanism 33. When the light source 21 is arranged at a position optically conjugate with the fundus Ef by the moving mechanism 33, the light receiving diaphragm 28 and the image pickup element 32 are also arranged at a position optically conjugate with the fundus Ef.
  • the ring lens 30 is an optical element for shaping the fundus reflected light guided from the objective lens 24 via the collimator lens 29 into a ring shape.
  • the ring lens 30 has a ring-shaped lens portion and a light-shielding portion.
  • the ring lens 30 is arranged at a position optically conjugate with the pupil of the eye to be inspected.
  • the image pickup device 32 receives the ring-shaped fundus reflected light (hereinafter referred to as a ring image) via the ring lens 30.
  • the image sensor 32 outputs the image information of the received ring image to the control unit 70.
  • the control unit 70 displays the ring image on the display 7 and calculates the refractive power based on the ring image.
  • the dichroic mirror 39 is arranged between the objective lens 24 and the eye to be inspected.
  • the dichroic mirror 39 transmits the light emitted from the light source 21 and the fundus reflected light corresponding to the light from the light source 21. Further, the dichroic mirror 39 guides the light flux from the fixative display optical system 40, which will be described later, to the eye to be inspected. Further, the dichroic mirror 39 reflects the anterior segment reflected light of the light from the alignment index projection optical system 50 described later, and guides the anterior segment reflected light to the anterior segment photographing optical system 60.
  • an alignment index projection optical system 50 is arranged in front of the eye to be inspected.
  • the alignment index projection optical system 50 mainly projects an index image used for alignment of the optical system with respect to the eye to be inspected to the anterior eye portion.
  • the alignment index projection optical system 50 includes a ring index projection optical system 51 and an index projection optical system 52.
  • the ring index projection optical system 51 projects diffused light onto the cornea of the subject's eye examination E, and projects the ring index 51a.
  • the ring index projection optical system 51 is also used as anterior ocular segment illumination for illuminating the anterior segment of the subject's optometry E in the ophthalmic apparatus 1 of the present embodiment.
  • the index projection optical system 52 projects parallel light onto the cornea of the eye to be inspected and projects the infinity index 52a.
  • the fixative display optical system 40 is provided on the optical axis L4 in the reflection direction of the light source 41, the fixative 42, the relay lens 43, and the reflection mirror 46.
  • the fixative 42 is used to fix the eye to be inspected when measuring the objective refractive power.
  • the fixative 42 is illuminated by the light source 41 and is presented to the eye to be inspected.
  • the light source 41 and the fixative 42 are integrally moved in the direction of the optical axis L4 by the drive mechanism 48.
  • the presentation position (presentation distance) of the fixative may be changed by moving the light source 41 and the fixative. This makes it possible to measure the refractive power by applying cloud fog to the eye to be inspected.
  • the front eye photographing optical system 60 includes an image pickup lens 61 and an image pickup element 62 on the optical axis L3 in the reflection direction of the half mirror 63.
  • the image sensor 62 is arranged at a position optically conjugate with the anterior segment of the eye to be inspected.
  • the image sensor 62 photographs the anterior eye portion illuminated by the ring index projection optical system 51.
  • the output from the image sensor 62 is input to the control unit 70.
  • the anterior eye portion image Ia of the eye to be inspected taken by the image sensor 62 is displayed on the display 7 (see FIG. 2).
  • an alignment index image (in this embodiment, the ring index 51a and the infinity index) formed on the cornea of the eye to be inspected is photographed by the alignment index projection optical system 50.
  • the control unit 70 can detect the alignment index image based on the image pickup result of the image sensor 62. Further, the control unit 70 can determine the suitability of the alignment state based on the position where the alignment index image is detected.
  • the operation of the ophthalmic appliance 1 of this embodiment will be described with reference to the flowcharts of FIGS. 4 to 5.
  • the detection of the position of the pupil of the eye to be inspected based on the face image If, the coarse alignment which is the alignment based on the detected position of the pupil, and the precision alignment which is the alignment based on the anterior segment image Ia. And are done automatically.
  • the control unit 70 performs measurement (inspection) when the precise alignment is completed.
  • the flowcharts of FIGS. 4 to 5 are cases where the right eye and the left eye of the subject are continuously inspected.
  • the position of the pupil is detected as the position of the eye to be inspected in this embodiment, the content of the present disclosure is not limited to this, and other characteristic sites such as the inner corner of the eye may be detected.
  • the inspection unit 2 is located at the rear position away from the subject and at the center on the left and right with respect to the base 5.
  • the face image If including the left and right eyes of the subject is photographed by the face photographing unit 3, and the control unit 70 acquires the face image If.
  • the control unit 70 analyzes the acquired facial image If and detects the positions of the left and right pupils (pupil EPR of the right eye and pupil EPL of the left eye) (S101).
  • the pupil position of the eye to be inspected specified by the detection is acquired as a detection position.
  • the control unit 70 may detect the edge of the face image and detect the position of the pupil from the face image based on the shape or the like.
  • the method for detecting the pupil refer to the method described in JP-A-2017-196304.
  • S104 a method of setting the direction in which the control unit 70 moves the inspection unit 2 will be briefly described.
  • the eye of the person to be inspected first is programmed in advance. For example, it is preset to start the examination from the right eye.
  • the control unit 70 identifies the pupil EPR of the right eye among the pupil positions of both eyes detected by the analysis of the facial image If.
  • the control unit 70 performs a calculation based on the position (x, y) (two-dimensional coordinates) of the identified pupil EPR of the right eye, and the direction (three-dimensional) in which the pupil EPR of the right eye exists with respect to the inspection unit 2. (Coordinates of) is obtained.
  • the control unit 70 controls the drive of the drive unit 4 and moves the inspection unit 2 in the required direction to perform rough alignment with respect to the right eye (S105).
  • control unit 70 shifts from coarse alignment to precision alignment (S109).
  • the control unit 70 analyzes the anterior eye portion image Ia imaged by the anterior eye portion photographing optical system 60.
  • the control unit 70 shifts from the coarse alignment to the precise alignment.
  • control unit 70 controls the drive of the drive unit 4 based on the alignment index projected by the alignment index projection optical system 50, and the measurement optical axis of the inspection unit 2 and the center of the cornea or the center of the cornea. Alignment in the XY direction that aligns the center of the pupil and alignment in the Z direction that adjusts the distance between the examination unit and the cornea of the eye to be inspected so as to have a predetermined working distance are performed.
  • the control unit 70 inspects so that the measurement optical axis of the inspection unit 2 and the center of the cornea coincide with each other based on the ring index 51a projected by the ring index projection optical system 51 as the alignment in the XY direction. Change the position of part 2 (alignment in the XY direction). For example, the center of the cornea and the measurement optical axis are aligned by changing the position of the inspection unit 2 in the XY direction so that the center of the ring of the ring index 51a and the measurement optical axis coincide with each other.
  • the control unit 70 uses the Z-direction alignment of the distance between the infinity index 52a projected by the index projection optical system 52 and the diameter of the ring index 51a projected by the ring index projection optical system 51.
  • the alignment state in the working distance direction is detected based on the ratio and the detection result, and the inspection unit 2 is moved based on the detection result.
  • the working distance alignment technique for example, the technique described in Japanese Patent Application Laid-Open No. 10-127581 can be used, so refer to this for details.
  • the alignment method based on these indexes is an example of precision alignment, and is not limited to this configuration and method.
  • the control unit 70 automatically emits a trigger signal for starting measurement, and the measurement optical system 20 of the inspection unit 2 starts measurement of the eye to be inspected.
  • the inspection unit 2 measures the refractive power of the eye to be inspected (S110).
  • control unit 70 controls the drive of the drive unit 4 based on the position corresponding to the unmeasured left eye pupil EPL among the positions of the left and right pupils acquired in S101, and performs rough alignment (S111). ).
  • control unit 70 performs precision alignment (S112) in the same manner as the method performed on the measured eye to be inspected, and when the alignment is completed, automatically emits a trigger signal to perform measurement (S113).
  • the control unit 70 starts detecting the pupil positions of the left and right eyes by analyzing the face image If captured by the face photographing unit 3 (S101).
  • the position of the subject's eye may be erroneously detected due to the subject's mascara, eyelashes, ptosis, etc., and as a result, pupil detection by facial image analysis fails (that is, an acquisition error occurs).
  • the control unit 70 determines whether the pupil detection by the face image analysis is successful within a predetermined time (S103). Further, if the position of the pupil is not acquired within a predetermined time (timeout), the control unit 70 determines that the pupil detection has failed (acquisition error).
  • the control unit 70 performs error processing (S106).
  • the control unit 70 displays on the display 7 that the position of the eye to be inspected (pupil position) is poorly detected, and the operation unit 8 specifies the position corresponding to the eye to be inspected. Notify that it is necessary.
  • the control unit 70 displays a message 201 to the effect that the pupil on the face image displayed on the display 7 is touched (see FIG. 8).
  • the message 201 is erased by touching the display 201a of "OK", and the state shifts to the state of accepting the input to the display 7.
  • the control unit 70 controls the face touched by the examiner.
  • Rough alignment is performed by using the position on the image as the position of the pupil, acquiring the position on the image instead of the position of the pupil detected by the face image analysis of S101, and controlling the drive unit 4 using the input designated position.
  • the touch to the display 7 is an example of a method of designating the pupil position on the face image, and is not limited to this.
  • the pupil position on the face image may be designated by a method such as a mouse or a button. ..
  • two designated positions a designated position SP1 corresponding to the right eye of the subject and a designated position SP2 corresponding to the left eye, can be input to the face image If.
  • the control unit 70 waits for the start of coarse alignment until the second designated position is input. If the second designated position is not input within the predetermined time, the control unit 70 may display a message to that effect to prompt the input of the second designated position.
  • the display of this message is an example of the notification means, and the display is not limited to this, and the examiner may be prompted to input the designated position by other means such as voice or blinking of a light.
  • the display of the face image If on the display 7 when the examiner inputs a designated position corresponding to the eye to be inspected may be a moving image taken by the face photographing unit 3 or a still image. May be good.
  • the control unit 70 may display the still image of the face image If at the time when the designated position is input on the display 7. For example, the control unit 70 may temporarily switch the display of the display 7 from a moving image to a still image while the examiner is touching the display 7 to input a designated position.
  • the designated position on the still image may be changed by the input of the examiner.
  • the control unit 70 may stop the pupil detection process based on the face image while the examiner changes the designated position on the still image.
  • control unit 70 acquires the coordinates of the designated position and obtains the direction in which the inspection unit 2 is moved based on the acquired coordinates (S107).
  • the drive unit 4 is controlled to perform rough alignment of the inspection unit 2 (S108).
  • a method of performing rough alignment based on the input of the designated position will be described with reference to the flowchart of FIG.
  • the control unit 70 sets the coordinates on the face image If displayed on the display 7 for each of the designated positions.
  • Acquire S201
  • the control unit 70 controls the display of the display 7 so that the location touched by the examiner can be known, and the visually distinguishable marks are superimposed and displayed on the touched positions SP1 and SP2. You may. Further, the control unit 70 has a right side display 76R showing the subject's right eye on the left side of the face image If and a face so that the examiner does not confuse the left and right of the subject's eye in the face image If displayed on the display 7. The left side display 76L showing the left eye of the subject and the left and right display 76 may be displayed on the right side of the image If. Further, the control unit 70 may display the clear button 78 so that the input can be redone when the examiner mistakenly touches the touch.
  • control unit 70 discards the input position and accepts the input from the examiner again. Further, the control unit 70 may store the face image If and the mark of the input position when the designated position is input to the face image If in the storage unit 74. In that case, the control unit 70 may be able to confirm the designated position by calling the image and displaying it on the display 7.
  • control unit 70 may acquire the last input position as the designated position. In that case, the control unit 70 may detect that the same position of the eye to be inspected on the left and right is input by using the determination means described later.
  • the control unit 70 determines which of the two designated positions corresponds to the positions of the left and right eyes to be inspected (S202). For example, the control unit 70 determines the left and right of the eye to be inspected based on the positional relationship between the two designated positions. That is, the control unit 70 refers to the coordinates on the display 7 for each of the two designated positions and compares the positions in the x direction. According to this, the control unit 70 can obtain the left-right relationship of the two designated positions. For example, the designated position on the left side corresponds to the eye to be inspected on the right, and the designated position on the right side corresponds to the eye to be inspected on the left.
  • the left and right discrimination regarding the two designated positions may be performed based on the positional relationship of the designated positions with respect to the face image If. That is, it is determined that the designated position existing in the region on the left side of the face image If corresponds to the right eye and the designated position existing in the region on the right side corresponds to the left eye.
  • the left side region and the right side region are, for example, experimentally predetermined regions.
  • the control unit 70 determines the designated position corresponding to the predetermined position for the first measurement among the two positions based on the left / right discrimination result performed in S202, and the determined position is determined.
  • the direction in which the inspection unit 2 is moved is determined based on the coordinates of the position corresponding to the eye to be inspected (S203).
  • the two-dimensional coordinates (x, y) on the face image which is the position of the pupil detected by the analysis of the face image in S105 described above, are used. , It may be replaced with the coordinates (x, y) of the designated position specified by the examiner.
  • the control unit 70 associates the left and right discrimination results with the left and right measurement results.
  • the control unit 70 controls the drive unit 4 based on the designated position and moves the inspection unit 2 in the required direction to perform rough alignment (S108).
  • the position of the chin rest 11 may be adjusted based on the designated position with respect to the face image If. For example, when the position of the eye to be inspected corresponding to the designated position in the Y direction is outside the movement range of the inspection unit 2 (optical axis L1) by the drive unit 4, the control unit 70 controls the drive of the jaw post drive unit 12. Then, by moving the jaw stand 11 in the Y direction, the position of the eye to be inspected corresponding to the designated position may be within the moving range of the inspection unit 2.
  • control unit 70 is projected onto the anterior eye portion by the alignment index projection optical system 50 by the analysis of the anterior eye portion image, as in the case where the position of the eye to be inspected is normally detected by the above-mentioned facial image analysis.
  • the control for performing coarse alignment shifts to the control for performing precision alignment.
  • the control unit 70 controls the drive of the drive unit 4 to perform precise alignment based on the alignment index based on the front eye portion image (S109).
  • the control unit 70 measures the eye to be inspected (S110).
  • control unit 70 performs rough alignment on the unmeasured eye among the left and right eyes to be inspected (S111).
  • the control unit 70 moves the inspection unit 2 using the coordinates (x, y) corresponding to the other unmeasured eye to be inspected among the coordinates of the designated position with respect to the face image If acquired in S107. Decide the direction to make it.
  • the control unit 70 performs rough alignment by moving the inspection unit 2 in the required direction (S111).
  • control unit 70 performs precision alignment (S112) and measurement (S113) in the same manner as the method used for the eye to be measured first.
  • the ophthalmic apparatus 1 includes a binocular examination mode for continuously inspecting the right eye and the left eye of a subject, and a right eye for selectively inspecting only the right eye among the left and right eye to be inspected.
  • An eye examination selection switch (eye selection means) that can select an examination mode and a left eye examination mode in which only the left eye is examined is provided (not shown).
  • the examiner may mistakenly recognize the left and right sides of the eye to be inspected and specify the position of the inspected eye in the wrong direction.
  • control unit 70 guides the examiner to input the designated position to the selected eye for the facial image.
  • control unit 70 controls the display of the display 7 and performs an induced display so that the eye to be touched by the examiner can recognize it.
  • the control unit 70 determines the brightness of the face image If displayed on the display 7 from the left and right center to the left region of the face image and from the left and right centers. Display with a difference between the brightness in the right area and. With such a guidance display, it is possible to touch the eye to be inspected, which is included in the one with the higher brightness (the one emphasized) among the left side and the right side of the face image, and guide the user to specify the position.
  • the induced representation is not limited to the example shown in FIG.
  • the display of the eye selected by the eye selection switch may be displayed so as to be distinguishable from the other.
  • the control unit 70 changes the color corresponding to the selected eye to a predetermined color (for example, orange).
  • the control may be such that the drive unit 4 is driven based on the pupil position (EPR, EPL) detected by the analysis of (see FIG. 11).
  • This control method is used when the wrong part is detected as the pupil (for example, the shadow of the mask covering the hair, nose and mouth, the outer background of the face, as a case of poor position detection of the pupil by analyzing the facial image. It is suitably applied to black areas, noise of reflected light due to makeup, kuroko, eye bands, scratches, eyebrows, eyebrows, etc., which may cause false detection of the pupil). Further, this control method is preferably applied even when the examiner touches the display 7 with a finger and the examiner has a low skill level and cannot accurately touch and specify the position of the pupil.
  • control unit 70 may perform alignment with respect to the designated position (SP1, SP2). good. In that case, the control unit 70 displays a message on the display 7 to notify the examiner that the eye to be inspected has not been detected and that the alignment is performed with respect to the designated positions (SP1, SP2). good.
  • the control unit 70 may obtain the reliability based on the characteristics of the detected part (for example, the difference in contrast with the surroundings and the shape). good.
  • the reliability is a value for evaluating the characteristics of the detection site. For example, if the reliability is lower than a predetermined threshold value, the control unit 70 may determine that an erroneous portion has been detected as a pupil and request the examiner to input a designated position.
  • control for performing the rough alignment using the designated positions may be performed as follows. That is, for example, when an erroneous part is detected as a pupil in the position detection of the pupil by analyzing a facial image, as shown in FIG. 12, a plurality of candidate regions 75a, 75b, 75c, 75d, which are detected as the pupil, 75e, 75f and 75g are displayed on the display 7.
  • the examiner confirms the display of the candidate area 75a-75g, and designates the position of the area to be identified as a pupil from the display by touching.
  • the control unit 70 limits the region of the designated designated position to the detection target of the pupil position, controls the drive unit 4 based on the pupil position detected by the analysis, and performs rough alignment.
  • the input of the designated position for the face image is performed when the detection of the position of the eye to be inspected fails (in the case of an acquisition error), but the input is not limited to this.
  • the control unit 70 accepted the input of the designated position by the touch panel or the like while detecting the position of the eye to be inspected based on the face image.
  • rough alignment may be performed based on the input of the designated position regardless of the position detection of the eye to be inspected based on the facial image.
  • the rough alignment is performed after the examiner designates two pupil positions for the face image If, but the rough alignment is performed after one designated position is input. You may be broken. Alternatively, for example, when the second designated position is not input within a predetermined time, rough alignment using the first input designated position may be started. The control in that case will be described with reference to the flowcharts of FIGS. 4 and 6.
  • the control unit 70 acquires the coordinates of the designated position in S107, and uses the result to obtain the direction in which the inspection unit 2 is moved.
  • the process of S107 when the designated position is one place is shown in the flowchart of FIG.
  • the control unit 70 receives an input for designating one place as the pupil position for a predetermined time, and acquires the coordinates of the designated position (S301). If no input is made within a predetermined time, for example, the device times out. When the time-out occurs, for example, the control unit 70 may notify the examiner that the face image displayed on the display 7 is touched and the pupil position is input.
  • the control unit 70 determines which of the left and right eyes to be inspected corresponds to the designated designated position (S302).
  • the control unit 70 determines that the position of the right eye to be inspected is specified when the left half of the face image is touched from the left and right central axes of the face image, and the face image is determined.
  • the right half is touched from the center of the left and right, it can be determined that the position of the left eye to be inspected is specified.
  • the left and right centers are examples of criteria for dividing the face image, and may differ depending on the configuration of the device.
  • the direction in which the inspection unit 2 is moved is obtained (S303), and rough alignment is performed (S108 in FIG. 4).
  • the method of rough alignment the same method as in the case of designating the positions of both eyes to be inspected and performing coarse alignment on one of them can be performed. That is, the alignment control based on the coordinates (x, y) obtained by the analysis of the face image can be roughly aligned by replacing the alignment control with the coordinates (x, y) on the designated face image.
  • control unit 70 performs precision alignment in the same manner as described above (S109), and measures the aligned eye (S110).
  • control unit 70 performs rough alignment on the unmeasured eye to be inspected (S111).
  • the input position of the eye to be inspected is one place, the subject to which the designated position is not input after the measurement of the eye to be inspected to which the designated position is input is completed based on the left / right discrimination result in S302.
  • the optometry is specified, and the optometry unit 2 is moved in the direction of the optometry to perform rough alignment.
  • the control unit 70 Since the left and right eyes to be inspected are at substantially the same height in the Y direction, the control unit 70 does not move the inspection unit 2 in the Y direction, but controls the drive unit 4 to move it in the X direction. At this time, the control unit 70 moves the inspection unit 2 in the direction in which the other eye is present, based on the result of the left-right discrimination. The positions of the left and right eyes to be examined are almost even on the left and right with respect to the center of the subject's face. Therefore, the amount of movement to move the inspection unit 2 in the X direction can be obtained based on the amount of movement of the inspection unit 2 with respect to the reference position (center position) of the base 5 when one of the eyes to be inspected is measured.
  • the amount of movement of the inspection unit 2 with respect to the reference position (center position) of the base 5 in the X direction can be obtained from the drive data of the drive unit 4 in the X direction.
  • the position of the inspection unit 2 in the Z direction with respect to the eye to be inspected can be regarded as substantially the same for the left and right eyes to be inspected, the position in the Z direction of the inspection unit 2 at the time of one measurement can be used.
  • the control unit 70 performs rough alignment with respect to the other eye to be inspected, analyzes the anterior eye portion image Ia acquired by the anterior ocular segment photographing optical system 60, and if the alignment index is detected, Precise alignment is performed based on the detection result.
  • control unit 70 automatically emits a trigger signal to execute the measurement by the measurement optical system 20.
  • the control unit 70 outputs the left and right measurement results corresponding to the left and right discrimination results of S302.
  • the alignment can be performed well.
  • the face image If displayed on the display 7 may be enlarged or reduced.
  • the examiner may be able to enlarge or reduce the image by pinching with the touch panel.
  • the examiner may be able to specify the position of the eye to be inspected in the Z direction based on the amount of enlargement / reduction of the facial image.
  • the ophthalmologic apparatus 1 uses machine learning to increase the accuracy with which the control unit 70 from the next time onward detects the eye to be inspected from the face image If based on the information of the position specified on the face image If. It may have the configuration. In that case, the control unit 70 acquires parameters such as the coordinates of the designated position on the face image and the difference in contrast between the designated position and its surroundings as success factors. For example, based on the obtained success factor, the control unit 70 increases the detection accuracy of the eye to be inspected by the face image analysis from the next time onward.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

顔画像を撮影するための第1撮影手段と、前眼部像を撮影するための第2撮影手段と、を備える眼科装置は、顔画像に基づいて特定される被検眼の位置を取得する位置取得ステップと、取得された被検眼の位置に基づいて被検眼が第2撮影手段の撮影範囲に含まれるように駆動手段を制御する第1制御ステップと、第1制御ステップの後に前眼部像に基づいて駆動手段を制御し、被検眼に対する検査部の相対位置を調整する第2制御ステップと、を含む調整処理を実行する制御手段と、顔画像を解析することで特定される被検眼の位置を検出位置として取得する第1取得手段と、顔画像に対する被検眼の位置の入力操作を受け付け、入力操作に基づいて特定される被検眼の位置を指定位置として取得する第2取得手段と、を備える。

Description

眼科装置および眼科装置の制御プログラム
 本開示は、被検眼を検査する眼科装置及び眼科装置の制御プログラムに関する。
 被検眼を検査する検査部を有する眼科装置において、左右の被検眼を含む顔画像を撮影し、撮影された顔画像を解析することで被検眼の位置を検出する技術が知られている。また、その検出結果に基づいて検査部を移動させて被検眼に対して検査部の粗いアライメントを行った後に、前眼部を撮影した前眼部像に基づく精密なアライメントに移行する自動アライメントの技術が知られている(例えば、特許文献1参照)。
特開2017-64058号公報
 しかしながら、顔画像を解析して被検眼の位置の検出を行う際に、被検者の顔の状況や検査環境によって、被検眼の位置の検出ができなかったり、被検眼の位置を誤検知したりする場合や、また、被検眼の検出の時間が長引く場合がある。このような場合、アライメントが良好に行われない問題があった。
 本開示は、上記問題点を鑑み、アライメントを良好に行える眼科装置及び眼科装置の制御プログラムを提供することを技術課題とする。
(1) 被検眼を検査する検査部を備える眼科装置は、被検眼に対して前記検査部を3次元的に相対移動させる駆動手段と、左右の被検眼を含む顔画像を撮影するための第1撮影手段と、被検眼の前眼部像を撮影するための第2撮影手段と、前記顔画像に基づいて特定される被検眼の位置を取得する位置取得ステップと、取得された被検眼の位置に基づいて被検眼が前記第2撮影手段の撮影範囲に含まれるように前記駆動手段を制御する第1駆動制御ステップと、前記第1駆動制御ステップの後に前記前眼部像に基づいて前記駆動手段を制御し、被検眼に対する前記検査部の相対位置を調整する第2駆動制御ステップと、を含む調整処理を実行する制御手段と、前記顔画像を解析することで被検眼の位置を検出し、検出により特定される被検眼の位置を検出位置として取得する第1取得手段と、前記顔画像に対する被検眼の位置の入力操作を受け付け、前記入力操作に基づいて特定される被検眼の位置を指定位置として取得する第2取得手段と、を備えることを特徴とする。
(2) 被検眼を検査する検査部を被検眼に対して3次元的に相対移動させる駆動手段と、左右の被検眼を含む顔画像を撮影するための第1撮影手段と、被検眼の前眼部像を撮影するための第2撮影手段と、を備える眼科装置において実行される制御プログラムは、眼科装置の制御部に実行されることで、前記顔画像に基づいて特定される被検眼の位置を取得する位置取得ステップと、取得された被検眼の位置が前記第2撮影手段によって撮影される前記前眼部像の撮影範囲に含まれるように前記駆動手段を制御する第1駆動制御ステップと、前記第1駆動制御ステップの後に前記前眼部像に基づいて前記駆動手段を制御し、被検眼に対する前記検査部の相対位置を調整する第2駆動制御ステップと、を含む調整処理を実行する制御ステップと、前記顔画像を解析することで被検眼の位置を検出し、検出により特定される被検眼の位置を検出位置として取得する第1取得ステップと、を眼科装置に実行させ、さらに、前記顔画像に対する被検眼の位置の入力操作を受け付け、前記入力操作に基づいて特定される被検眼の位置を指定位置として取得する第2取得ステップを、眼科装置に実行させることを特徴とする。
眼科装置の外観概略図である。 眼科装置の制御系を示すブロック図である。 眼科装置の光学系を示す概略図である。 眼科装置の動作を示すフローチャート図である。 左右の被検眼の位置が入力された場合における眼科装置の動作を示すフローチャート図である。 左右いずれかの被検眼の位置が入力された場合における眼科装置の動作を示すフローチャート図である。 顔画像の解析により被検眼の位置が検出された場合におけるディスプレイの概略図である。 顔画像の解析により被検眼の位置が検出されなかった場合におけるディスプレイの概略図である。 検者により顔画像上の位置が入力された場合におけるディスプレイの概略図である。 検者に顔画像上の選択された眼の方に指定位置を入力させるように誘導する場合におけるディスプレイの表示を説明する図である。 検者により入力された顔画像上の位置に基づいて被検眼の位置を検出する場合におけるディスプレイの概略図である。 顔画像上に瞳孔と検出された複数の候補の領域を表示する場合におけるディスプレイの概略図である。
 以下、本開示の実施形態を図面に基づいて説明する。図1~12は実施形態に係る眼科装置の構成を説明する図である。
 <概要>
 例えば、眼科装置(例えば、眼科装置1)は、被検眼を検査する検眼手段(例えば、検査部2)と、駆動手段(例えば、駆動部4)と、第1撮影手段(例えば、顔撮影部3)と、第2撮影手段(例えば、前眼部撮影光学系60)と、制御手段(例えば、制御部70)と、第1取得手段(例えば、制御部70)と、第2取得手段(例えば、制御部70)と、を備える。
 また、例えば、検眼手段は、被検眼を検査(測定を含む)するための検査光学系(例えば、測定光学系20)を備える。
 例えば、眼科装置は、検眼手段を搭載する基台(例えば、基台5)と、顔支持手段(例えば、顔支持部9)と、検出手段(例えば、制御部70)と、入力手段(例えば、操作部8)と、報知手段(例えば、ディスプレイ7)と、表示手段(例えば、ディスプレイ7)と、判別手段(例えば、制御部70)と、の少なくともいずれかを備えていてもよい。
 例えば、顔支持手段は、基台に対して被検者の顔を一定の位置関係に支持するために構成されている。例えば、顔支持手段は、被検者の顎が載せられる顎台を備えていてもよい。
 例えば、駆動手段は、被検眼に対して検眼手段を3次元的に相対移動させるために構成されている。例えば、検眼手段は、顔支持手段に支持された被検者の被検眼に対して、X方向(左右方向)、Y方向(上下方向)及びZ方向(前後方向)に移動可能に基台に搭載されている。例えば、駆動手段は、基台に対して検眼手段をX方向、Y方向及びZ方向に移動させる。また、例えば、眼科装置は、顎台駆動手段(例えば、顎台駆動部12)を備えていてもよい。例えば、顎台駆動手段は、顎台をY方向に駆動するために顔支持手段に備えられている。この場合、駆動手段は、被検眼に対して検眼手段をY方向に相対移動させる構成として、顎台駆動手段を含んでいてもよい。
 例えば、第1撮影手段は、左右の被検眼を含む顔画像を撮影するために構成されている。
 例えば、第2撮影手段は、被検眼の前眼部像を撮影するために構成されている。例えば、第2撮影手段は、第1撮影手段の撮影倍率より高倍率で被検眼の前眼部像を撮影するために構成されている。例えば、第1撮影手段は、第2撮影手段と兼用され、撮影倍率が変更可能に構成されていてもよい。
 例えば、検出手段は、第2撮影手段による前眼部像に基づいて検査対象の被検眼に対する検眼手段の精密にアライメント状態を検出する。
 例えば、表示手段は、第1撮影手段によって撮影された顔画像を表示する。例えば、表示手段は、第2撮影手段によって撮影された前眼部像を表示してもよい。例えば、表示手段は、顔画像と前眼部像とを同時に表示してもよい。この場合、例えば、制御手段は、顔画像に基づくアライメントを行うときには前眼部像よりも顔画像を大きく表示してもよい。また、制御手段は、前眼部像に基づくアライメントに移行したときには、顔画像より前眼部像を大きく表示してもよい。なお、例えば、顔画像に基づくアライメントによって、前眼部像に基づくアライメントが可能になるまで被検眼と検眼手段の位置関係が調整される。例えば、前眼部像に基づくアライメントによって、被検眼と検眼手段との位置関係が所定の位置関係に位置合わせされる。なお、所定の位置関係とは、例えば、検眼手段による検査が可能となる被検眼と検眼手段の位置関係である。
 例えば、入力手段は、第1撮影手段による顔画像に対して被検眼に対応する位置を検者が指定して入力するために眼科装置に備えられている。例えば、入力手段は、被検眼に対して検眼手段を粗くアライメントするための指定位置を入力可能にされている。例えば、入力手段は、ポインティングデバイス(例えば、タッチパネル、ジョイスティック、マウス、キーボード、トラックボール、ボタンなど少なくとも一つのヒューマンインターフェイス)を備える。例えば、入力手段は、粗アライメント時に表示手段に表示された顔画像に対して指定位置が入力可能にされている。例えば、指定位置を入力する顔画像は、第1撮影手段によって撮影された動画であってもよいし、静止画であってもよい。
 例えば、制御手段は、駆動手段を制御することにより、被検眼に対する検査部の相対位置を調整する調整処理を実行する。例えば、制御手段が実行する調整処理は、位置取得ステップと、第1駆動制御ステップと、第2駆動制御ステップとを含む。
 例えば、位置取得ステップは、顔画像に基づいて特定される被検眼の位置を取得するステップである。
 例えば、第1駆動制御ステップは、取得された被検眼の位置が第2撮影手段の撮影範囲に含まれるように駆動手段を制御するステップである。例えば、第1駆動制御ステップは、被検眼に対して検査部を粗くアライメントするための粗アライメントであってもよい。
 例えば、第2駆動制御ステップは、第1駆動制御ステップの後に前眼部像に基づいて駆動手段を制御し、被検眼に対する検査部の相対位置を調整するステップである。例えば、第2駆動制御ステップは、被検眼に対して検査部を精密にアライメントするための精密アライメントであってもよい。
 例えば、第1取得手段は、顔画像を解析することで被検眼の位置を検出し、検出により特定される被検眼の位置を検出位置として取得する。
 例えば、第2取得手段は、顔画像に対する被検眼の位置の入力操作を受け付け、入力操作に基づいて特定される被検眼の位置を指定位置として取得する。例えば、第2取得手段は、位置取得ステップにおいて、表示手段に表示された顔画像に対する眼の位置の入力操作に基づいて指定位置を取得してもよい。そして、例えば、制御手段は、第2取得手段によって取得された被検眼の位置に基づいて、第1駆動制御ステップの調整処理を実行する。
 例えば、第2取得手段は、顔画像において入力操作によって指定された座標を基準とする顔画像の一部を解析対象として被検眼の位置を検出し、検出により特定される被検眼の位置を指定位置として取得する。例えば、解析対象の顔画像の一部とは、指定された座標を基準とした所定領域内である。
 例えば、位置取得ステップにおいて、顔画像に基づいて特定される被検眼の位置の候補が複数ある場合、表示手段が特定された被検眼の位置の候補を表示してもよい。この場合、第2取得手段は、検者の入力操作により、複数の候補の中から指定された候補を指定位置として取得する。
 例えば、第2取得手段が設けられていることにより、被検者の顔の状況(例えば、被検者のマスカラやまつ毛、眼瞼下垂など)や検査環境(第1撮影手段で撮影される被検者の顔の背景、照明光、外乱光など)によって、第1取得手段による被検眼の位置の検出ができなかった場合、また、被検眼の検出に時間が長引く場合に、アライメントを良好に行える。
 また、例えば、制御手段は、検出位置を利用した調整処理が開始されてから、指定位置の入力操作を受け付けた場合は、第1取得手段による検出位置に関わらず、指定位置に基づいて第1駆動制御ステップを行ってもよい。これにより、第1取得手段による被検眼の検出に時間が長引く場合にもアライメントを良好に行える。
 例えば、制御手段は、左眼および右眼を連続的に検査する場合に、左眼および右眼のそれぞれの位置を、左眼および右眼のうち最初に検査される片方の被検眼に対する調整処理での位置取得ステップにおいて一括して取得可能してもよい。そして、位置取得ステップにおいて、左眼および右眼のそれぞれの位置が一括して取得される場合は、それぞれの被検眼に対する入力操作が要求されてもよい。これにより、検者は、左眼および右眼のそれぞれの位置の入力が必要なことを把握でき、また、入力忘れを防止できる。
 またさらに、左眼および右眼を連続的に検査する場合において、制御手段は、片方の被検眼に対応する指定位置を用いて第1駆動制御ステップを予め定められた手順で行い、片方の眼の検査が終了した後、反対の眼に対応する指定位置を用いて第1駆動制御ステップを行ってもよい。この場合、例えば、2つの指定位置に左眼および右眼のいずれに対応する位置かを判別するための判別手段(例えば、制御部70)が、眼科装置に設けられていてもよい。
 例えば、判別手段は、2つの指定位置の位置関係又は顔画像に対する指定位置の位置関係に基づき、2つの指定位置に左眼および右眼のいずれに対応する位置かを判別する。そして、例えば、制御手段は、左右の判別結果に基づき、2つの指定位置のうち、初めに検査するために予め定められた方の眼に対応する指定位置を決定し、第1駆動制御ステップの実行を開始する。これにより、両眼の検査におけるアライメントを良好に行える。
 なお、予め定められた手順は、例えば、左右の被検眼のうち、どちらの被検眼から検査を行うかを定めた手順である。また、予め定められた手順は、例えば、最初に指定位置が入力された被検眼から検査を行うと定められていてもよい。
 例えば、制御手段は、左眼および右眼の2つの位置が入力されるまで第1駆動制御ステップの実行を待機してもよい。例えば、左眼および右眼の一方の位置が入力された後、反対の眼の位置が所定時間内に入力されないときは、被検眼の位置の入力操作を促すように検者に報知する報知手段(例えば、ディスプレイ7)が眼科装置に備えられていてもよい。あるいは、例えば、反対の眼の位置が所定時間内に入力されない場合、制御手段は、一方の眼の位置を用いて第1駆動制御ステップの実行を開始してもよい。
 また、例えば、判別手段は、入力操作により入力された指定位置が1つの場合に、顔画像における右眼領域と左眼領域のいずれに指定位置が存在するかに基づいて被検眼の左右を判別するように構成されていてもよい。この場合、例えば、制御手段は、入力された指定位置に基づいて第1駆動制御ステップを行った後に第2駆動制御ステップに移行し、左右片方の被検眼の検査の終了後に未検査の被検眼を検査するために、判別手段の判別結果に基づいて被検眼に対して検査部を相対移動させる左右方向を決定し、決定した方向に基づいて未検査の被検眼に前記検査部が近づくように駆動手段を制御し、第2駆動制御ステップに移行させる。これにより、指定位置が1つの場合であっても、左右両眼の連続検査におけるアライメントを良好に行える。
 例えば、報知手段は、検出位置を利用した調整処理において、検出位置の取得に失敗した場合(すなわち取得エラーが生じた場合)は、指定位置の入力操作を検者に対して要求するための報知を行う。これにより、検者は、第1取得手段による被検眼の位置の検出が不良であったことを知ることができると共に、被検眼の位置の入力操作を行うことでアライメントを良好に行うことができる。
 なお、本開示においては、本実施形態に記載する装置に限定されない。例えば、上記実施形態の機能を行う制御プログラム(ソフトウェア)をネットワーク又は各種記憶媒体等を介して、システムあるいは装置に供給してもよい。そして、システムあるいは装置の制御部(例えば、CPU等)がプログラムを読み出し、実行することも可能である。
 例えば、眼科装置において実行される制御プログラムは、眼科装置の制御部に実行されることで、被検眼に対する検査部の相対位置を調整する調整処理を実行する制御ステップを眼科装置に実行させてもよい。例えば、制御ステップは、制御手段が行う前述のような各種の処理ステップを含む。
 <実施例>
 本開示に係る眼科装置を図面に基づいて説明する。なお、以下の説明では、眼科装置として眼屈折力測定装置を例に説明するが、角膜曲率測定装置、眼圧測定装置、眼底カメラ、OCT(Optical Coherence Tomography)、SLO(Scanning Laser Ophthalmoscope)、局所視野計(Micro Perimeter)等の他の眼科装置にも適用可能である。
 本実施例の眼科装置は、例えば、被検眼の眼屈折力を他覚的に測定する。例えば、本実施例の眼科装置は、片眼毎に測定を行ってもよいし、両眼同時に(両眼視で)測定を行う装置であってもよい。眼科装置は、例えば、検査部と、撮影部と、駆動部と、制御部と、を主に備える。
 図1に基づいて、眼科装置の外観を説明する。図1に示すように、本実施例の眼科装置1は、検査部2と、顔撮影部3と、駆動部4と、を主に備える。検査部2は、被検眼を検査する。検査部2は、例えば、被検眼の眼屈折力、角膜曲率、眼圧等を測定する光学系を備えてもよい。また、検査部2は、被検眼の前眼部、眼底等を撮影するための光学系等を備えてもよい。本実施例では、屈折力を測定する検査部2を例に説明する。顔撮影部3は、例えば、被検眼の顔を撮影する。顔撮影部3は、例えば、左右の被検眼を含む顔を撮影する。駆動部4は、例えば、検査部2および顔撮影部3を基台5に対して上下左右前後方向(3次元方向)に移動させる。
 さらに、本実施例の眼科装置1は、例えば、筐体6、ディスプレイ7、操作部8、顔支持部9等を備えてもよい。例えば、筐体6は、検査部2、顔撮影部3、駆動部4等を収納する。
 ディスプレイ7は、例えば、顔撮影部3による顔画像If、前眼部撮影光学系60による前眼部像Iaおよび測定結果等を表示させる。例えば、ディスプレイ7の表示は、後述する精密アライメント(図4参照)が開始されると、顔画像Ifから前眼部像Iaに切り替えられる。例えば、ディスプレイ7には、顔画像Ifと前眼部像Iaとが同時に表示されても良い。例えば、制御部70は、顔画像Ifと前眼部像Iaのうち検者が選択した方をディスプレイ7に表示させても良い。その場合は、例えば、顔画像Ifと前眼部像Iaのいずれかを表示するか選択する選択手段(例えば、スイッチ)が眼科装置1に設けられる。また、ディスプレイ7は、例えば、眼科装置1と一体的に設けられてもよいし、装置とは別に設けられてもよい。
 例えば、眼科装置1は、操作部8を備えてもよい。例えば、操作部8は、ディスプレイ7の画面に対して位置を指定可能なポインティングデバイスを備える。ポインティングデバイスは、タッチパネル、ジョイスティック、マウス、キーボード、トラックボール、ボタン等の各種ヒューマンインターフェイスであってもよい。操作部8には、検者による各種操作指示が入力される。
 なお、本実施例において、ディスプレイ7はタッチ機能を備えており、操作部8はディスプレイ7と兼用される。すなわち、検者がディスプレイ7をタッチすることで、眼科装置1の操作が行われる。操作部8は、眼科装置1の各種設定、測定開始時の操作に用いられる。また、本実施例において、操作部8は、検者がディスプレイ7に表示される顔画像If上の座標(位置)を指定するために使用される。例えば、ディスプレイ7には二次元の座標軸(x軸及びy軸)が予めプログラムにより設定されており、検者がタッチした位置(指定ポイント)が制御部70(図2参照)によって認識される。なお、ディスプレイ7上の二次元の座標軸(x軸及びy軸)は、説明のために付した名称であり、検査部2が駆動する方向のX方向(左右方向)、Y方向(上下方向)及びZ方向(前後方向)とは異なる。
 また、制御部70がタッチによる入力を認識する構成については特開2014-205078号公報に記されたものと同様であるので、これを参照されたい。
 顔支持部9は、例えば、額当て10と顎台11を備えてもよい。顎台11は、顎台駆動部12の駆動によって上下方向に移動されてもよい。
 図2に示すように、眼科装置1は制御部70を備える。制御部70は、眼科装置1の各種制御を司る。制御部70は、例えば、一般的なCPU(Central Processing Unit)71、フラッシュROM72、RAM73等を備える。例えば、フラッシュROM72には、眼科装置1を制御するための制御プログラム、初期値等が記憶されている。例えば、RAMは、各種情報を一時的に記憶する。制御部70は、検査部2、顔撮影部3、駆動部4、ディスプレイ7、操作部8、顎台駆動部12、記憶部(例えば、不揮発性メモリ)74等と接続されている。記憶部74は、例えば、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、着脱可能なUSBフラッシュメモリ等を記憶部74として使用することができる。
 顔撮影部3は、例えば、左右の被検眼を含む顔を撮影することができる。例えば、図3に示すように、本実施例の顔撮影部3は、例えば、被検者の顔を撮影する撮影光学系3Aを備える。撮影光学系3Aは、例えば、撮像素子3Aaと、撮像レンズ3Abを主に備える。顔撮影部3は、例えば、非テレセントリック光学系である。これによって、例えば、テレセントリックレンズ等を備えなくてもよく、構成を簡単にすることができる。また、テレセントリック光学系に比べ、撮影範囲を広くできる。
 本実施例の顔撮影部3は、駆動部4によって検査部2とともに移動される。もちろん、顔撮影部3は、例えば、基台5に対して固定され、移動しない構成でもよい。
 なお、図1に示された本実施例では、顔撮影部3は検査部2の上方に設けられているが、顔撮影部3の位置はこれに限定されない。例えば、顔撮影部3は、検査部2の下方に設けられてもよいし、側方に設けられてもよい。また、本実施例では、顔撮影部3(撮影光学系3Aの光軸)の左右方向の位置は、検査部2の光軸L2と同一位置であるが、これに限定されない。例えば、被検者の右眼から測定を開始するものとして、検査部2の左右方向の初期位置は被検者から見て右眼側に位置した状態で、顔撮影部3は顎台11と同じく基台5の左右中央に位置していてもよい。もちろん、顔撮影部3は、検査部2の測定光軸と顔撮影部3の撮影光軸が同軸となるように設けられてもよい。また、顔撮影部3は、検査部2の移動とは独立して配置されてもよい。例えば、顔撮影部3は基台5に3次元的に駆動可能に設けられ、駆動部(第1駆動部)4とは別の駆動部(第2駆動部)によって被検眼に対して3次元的に駆動されてもよい。もちろん本実施例のように検査部2を移動させる第1駆動部と、顔撮影部3を移動させる第2駆動部が兼用されてもよい。
 検査部2は、被検眼の測定,検査,撮影などを行う。検査部2は、例えば、被検眼の屈折力を測定する測定光学系を備えてもよい。例えば、図3に示すように、検査部2は、測定光学系20と、固視標呈示光学系40と、アライメント指標投影光学系50と、観察光学系(前眼部撮影光学系)60と、を備えてもよい。
 測定光学系20は、投影光学系(投光光学系)20aと、受光光学系20bと、を有する。投影光学系20aは、被検眼の瞳孔を介して眼底Efに光束を投影する。また、受光光学系20bは、瞳孔周辺部を介して眼底Efからの反射光束(眼底反射光)をリング状に取り出し、主に屈折力の測定に用いるリング状の眼底反射像を撮影する。
 投影光学系20aは、光源21と、リレーレンズ22と、ホールミラー23と、対物レンズ24と、を光軸L1上に有している。光源21は、リレーレンズ22から対物レンズ24、および、瞳孔中心部を介して眼底Efにスポット状の光源像を投影する。光源21は、移動機構33によって光軸L1方向に移動される。ホールミラー23には、リレーレンズ22を介した光源21からの光束を通過させる開口が設けられている。ホールミラー23は、被検眼の瞳孔と光学的に共役な位置に配置されている。
 受光光学系20bは、ホールミラー23と、対物レンズ24と、を投影光学系20aと共用する。また、受光光学系20bは、リレーレンズ26と、全反射ミラー27と、を有している。更に、受光光学系20bは、受光絞り28と、コリメータレンズ29と、リングレンズ30と、撮像素子32と、をホールミラー23の反射方向の光軸L2上に有している。撮像素子32には、エリアCCD等の二次元受光素子を用いることができる。受光絞り28、コリメータレンズ29、リングレンズ30、及び撮像素子32は、移動機構33によって、投影光学系20aの光源21と一体的に光軸L2方向に移動される。移動機構33によって光源21が眼底Efと光学的に共役な位置に配置される場合、受光絞り28及び撮像素子32も、眼底Efと光学的に共役な位置に配置される。
 リングレンズ30は、対物レンズ24からコリメータレンズ29を介して導かれる眼底反射光を、リング状に整形するための光学素子である。リングレンズ30は、リング状のレンズ部と、遮光部と、を有している。また、受光絞り28及び撮像素子32が、眼底Efと光学的に共役な位置に配置される場合、リングレンズ30は、被検眼の瞳孔と光学的に共役な位置に配置される。撮像素子32では、リングレンズ30を介したリング状の眼底反射光(以下、リング像という)が受光される。撮像素子32は、受光したリング像の画像情報を、制御部70に出力する。その結果、制御部70では、ディスプレイ7でのリング像の表示、およびリング像に基づく屈折力の算出等が行われる。
 また、図3に示すように、本実施例では、対物レンズ24と被検眼との間に、ダイクロイックミラー39が配置されている。ダイクロイックミラー39は、光源21から出射された光、および、光源21からの光に応じた眼底反射光を透過する。また、ダイクロイックミラー39は、後述の固視標呈示光学系40からの光束を被検眼に導く。更に、ダイクロイックミラー39は、後述のアライメント指標投影光学系50からの光の前眼部反射光を反射して、その前眼部反射光を前眼部撮影光学系60に導く。
 図3に示すように、被検眼の前方には、アライメント指標投影光学系50が配置されている。アライメント指標投影光学系50は、主に、被検眼に対する光学系の位置合わせ(アライメント)に用いられる指標像を前眼部に投影する。アライメント指標投影光学系50は、リング指標投影光学系51と、指標投影光学系52と、を備える。リング指標投影光学系51は、被検者検眼Eの角膜に拡散光を投影し、リング指標51aを投影する。リング指標投影光学系51は、本実施例の眼科装置1では、被検者検眼Eの前眼部を照明する前眼部照明としても用いられる。指標投影光学系52は、被検眼の角膜に平行光を投影し、無限遠指標52aを投影する。
 固視標呈示光学系40は、光源41、固視標42、リレーレンズ43、反射ミラー46の反射方向の光軸L4上に有している。固視標42は、他覚屈折力測定時に被検眼を固視させるために使用される。例えば、光源41によって固視標42が照明されることによって、被検眼に呈示される。
 光源41及び固視標42は、駆動機構48によって光軸L4の方向に一体的に移動される。光源41及び固視標42の移動によって、固視標の呈示位置(呈示距離)を変更してもよい。これによって、被検眼に雲霧をかけて屈折力測定を行うことができる。
 前眼部撮影光学系60は、撮像レンズ61と、撮像素子62とを、ハーフミラー63の反射方向の光軸L3上に備える。撮像素子62は、被検眼の前眼部と光学的に共役な位置に配置される。撮像素子62は、リング指標投影光学系51によって照明される前眼部を撮影する。撮像素子62からの出力は、制御部70に入力される。その結果、撮像素子62によって撮影される被検眼の前眼部像Iaが、ディスプレイ7に表示される(図2参照)。また、撮像素子62では、アライメント指標投影光学系50によって被検眼の角膜に形成されるアライメント指標像(本実施例では、リング指標51aおよび無限遠指標)が撮影される。その結果、制御部70は、撮像素子62の撮影結果に基づいてアライメント指標像を検出できる。また、制御部70は、アライメント状態の適否を、アライメント指標像が検出される位置に基づいて判定できる。
 <両眼検査>
 以下、本実施例の眼科装置1における動作について、図4~図5のフローチャートを用いて説明する。本実施例において、例えば、顔画像Ifに基づいて被検眼の瞳孔の位置の検出と、検出された瞳孔の位置に基づくアライメントである粗アライメントと、前眼部像Iaに基づくアライメントである精密アライメントと、が自動で行われる。制御部70は、精密アライメントが完了すると測定(検査)を行う。なお、図4~図5のフローチャートは、被検者の右眼および左眼を連続的に検査する場合である。
 なお、本実施例において被検眼の位置として瞳孔の位置を検出するとするが、本開示内容はこれに限定されず、目頭といった他の特徴部位を検出対象としても良い。
 (1)顔画像の解析によって被検眼の位置が正常に検出された場合
 まず、顔撮影部3によって撮影された顔画像の解析によって被検眼の位置が正常に検出された場合を説明する。
 例えば、検査開始前の初期状態では、検査部2は被検者から離れた後方の位置で、基台5に対して左右中央に位置されている。この状態のとき、図7に示すように、被検者の左右の被検眼を含む顔画像Ifが顔撮影部3によって撮影され、制御部70は、顔画像Ifを取得する。制御部70は、取得した顔画像Ifを解析し、左右の瞳孔(右眼の瞳孔EPR、左眼の瞳孔EPL)の位置検出を行う(S101)。検出により特定される被検眼の瞳孔位置は、検出位置として取得される。例えば、制御部70は、顔画像のエッジを検出し、その形状などに基づいて、顔画像から瞳孔の位置を検出してもよい。なお、瞳孔の検出方法の例としては、特開2017-196304号公報に記載された方法を参照されたい。
 その後、ディスプレイ7(タッチパネル)に入力が無く(S102:No)、制御部70によって顔画像に基づいて両眼の瞳孔位置が検出されたと判定されると(S103:Yes)、検出された左右の瞳孔位置に基づいて検査部を移動させる方向が設定され(S104)、粗アライメントが行われる(S105)。
 S104において、制御部70が検査部2を移動させる方向を設定する方法について、簡単に説明する。なお、左右の被検眼に関し、予め最初に検査を行う方の眼がプログラムされている。例えば、右眼から検査を開始するように予め設定されている。
 制御部70は、顔画像Ifの解析によって検出された両眼の瞳孔位置のうち、右眼の瞳孔EPRを特定する。制御部70は、特定した右眼の瞳孔EPRの位置(x,y)(二次元の座標)に基づいて演算を行い、検査部2に対して右眼の瞳孔EPRが存在する方向(三次元の座標)を求める。その後、制御部70は、駆動部4の駆動を制御し、求められた方向に検査部2を移動させることで右眼に対して粗アライメントを行う(S105)。
 なお、顔画像If上の座標から、被検眼が存在する方向を求める方法(すなわち粗アライメントの方法)については過去の公報(例えば、特開2017-64058号公報、特開2019-63043号公報)に記載された技術を使用できるため、これを参照されたい。
 次いで、制御部70は、粗アライメントから精密アライメントに移行する(S109)。例えば、粗アライメントとして検査部2が移動されているときに並行して、制御部70は、前眼部撮影光学系60によって撮影される前眼部像Iaを解析する。前眼部像Iaの解析の結果、アライメント指標投影光学系50によって角膜に投影されたアライメント指標が検出されるようになると、制御部70は、粗アライメントから精密アライメントに移行する。
 例えば、本実施例における精密アライメントでは、制御部70は、アライメント指標投影光学系50によって投影されるアライメント指標に基づいて駆動部4の駆動を制御し、検査部2の測定光軸と角膜中心又は瞳孔中心を一致させるXY方向のアライメントと、検査部と被検眼の角膜との間隔が所定の作動距離となるように調整するZ方向のアライメントと、を行う。
 例えば、本実施例において制御部70は、XY方向のアライメントとして、リング指標投影光学系51によって投影されるリング指標51aに基づいて検査部2の測定光軸と、角膜中心が一致するように検査部2の位置を変更する(XY方向のアライメント)。例えば、リング指標51aのリングの中心と、測定光軸が一致するように、検査部2のXY方向の位置を変更することで、角膜中心と測定光軸とを一致させる。
 例えば、本実施例において制御部70は、Z方向のアライメントとして、指標投影光学系52によって投影される無限遠指標52aの間隔と、リング指標投影光学系51によって投影されるリング指標51aの直径の比率と、に基づいて作動距方向のアライメント状態を検出し、その検出結果に基づいて検査部2を移動させる。なお、作動距離のアライメント技術は、例えば、特開平10-127581号公報に記載された技術を利用できるので、詳細はこれを参照されたい。なお、これらの指標に基づくアライメント方法は精密アライメントの一例であり、この構成及び方法に限定されない。
 次いで、制御部70は、精密アライメントが完了すると、自動的に測定開始のトリガ信号を発し、検査部2の測定光学系20によって被検眼の測定を開始する。例えば、検査部2は被検眼の眼屈折力の測定を行う(S110)。
 次いで、制御部70は、S101において取得された左右の瞳孔の位置のうち、未測定の左眼の瞳孔EPLに対応する位置に基づいて駆動部4の駆動を制御し、粗アライメントを行う(S111)。
 その後、制御部70は、測定済みの被検眼に対して行った方法と同様にして精密アライメントを行い(S112)、アライメントが完了したら自動的にトリガ信号を発して測定(S113)を行う。
 (2)顔画像に対して指定位置が入力された場合
 次に、顔画像Ifに対して指定位置が入力された場合の動作を、被検眼の位置検出が正常にできた場合(指定位置が入力されなかった場合)の動作との相違を中心に説明する。
 制御部70は、顔撮影部3によって撮影された顔画像Ifを解析することで、左右眼の瞳孔位置の検出を開始する(S101)。ここで、被検者のマスカラやまつ毛、眼瞼下垂などによって、被検眼の位置が誤検知される場合があり、このため顔画像解析による瞳孔検出が失敗すること(すなわち、取得エラーとなること)がある。なお、被検眼の位置が誤検知される場合には、被検眼の位置が検出されない場合も含まれる。このとき、制御部70は、所定の時間内に顔画像解析による瞳孔検出に成功したかを判定する(S103)。また、所定の時間内に瞳孔の位置が取得されなければ(タイムアウト)、制御部70は、瞳孔検出に失敗した(取得エラー)と判定する。
 瞳孔検出に失敗した場合(S103:No)、制御部70はエラー処理を行う(S106)。本実施例において、例えば、制御部70は、エラー処理として、被検眼の位置(瞳孔位置)が検出不良の旨をディスプレイ7に表示すると共に、操作部8によって被検眼に対応する位置の指定が必要な旨を報知する。例えば、制御部70は、図8に示すように、ディスプレイ7に表示された顔画像上の瞳孔をタッチする旨のメッセージ201を表示する(図8参照)。メッセージ201は、「OK」の表示201aがタッチされることで消され、ディスプレイ7への入力を受け付ける状態へ移行される。
 ディスプレイ7に顔画像が表示されている状態で、検者によってディスプレイ7の画面がタッチされ、顔画像に対して位置が指定されると(S102)、制御部70は、検者がタッチした顔画像上の位置を瞳孔の位置として、S101の顔画像解析によって検出される瞳孔の位置の代わりに取得し、入力された指定位置を用いて駆動部4を制御することで粗アライメントを行う。
 なお、ディスプレイ7に対するタッチは、顔画像上の瞳孔位置を指定する方法の一例であって、これに限定されず、例えば、マウスやボタンといった方法で顔画像上の瞳孔位置が指定されても良い。
 ここで、例えば、図9に示すように、顔画像Ifに対して被検者の右眼に対応する指定位置SP1と、左眼に対応する指定位置SP2と、の2つの指定位置が入力可能にされている場合、制御部70は、2つ目の指定位置が入力されるまで粗アライメントの開始を待つ。2つ目の指定位置が所定時間内に入力されないときは、制御部70は、2つ目の指定位置の入力を促すように、その旨のメッセージを表示してもよい。もちろん、このメッセージの表示は、報知手段の一例であって、これに限定されず、音声やライトの点滅といった他の手段で検者に指定位置の入力の操作を促しても良い。
 なお、検者が被検眼に対応する指定位置を入力するときのディスプレイ7上の顔画像Ifの表示は、顔撮影部3で撮影されている動画であってもよいし、静止画であってもよい。
 例えば、動画上で顔画像If上の位置が指定された場合、制御部70は、指定位置が入力された時点における顔画像Ifの静止画をディスプレイ7に表示してもよい。例えば、制御部70は、検者が指定位置を入力するためにディスプレイ7をタッチしている間は、ディスプレイ7の表示を動画から静止画に一時的に切換えてもよい。もちろん、静止画上の指定位置は検者の入力によって変更可能であってもよい。例えば、制御部70は、検者が静止画上の指定位置を変更している間は、顔画像に基づく瞳孔検出処理を停止してもよい。
 顔画像Ifに対して被検眼に対応する指定位置が入力された場合、制御部70は、指定位置の座標を取得し、取得した座標に基づいて検査部2を移動させる方向を求め(S107)、駆動部4を制御して検査部2の粗アライメントを行う(S108)。以下、指定位置の入力に基づいて粗アライメントを行う方法について、図5のフローチャートを用いて説明する。
 制御部70は、ディスプレイ7に表示されている顔画像に対して所定の時間内に2カ所が指定された場合、指定された位置のそれぞれについてディスプレイ7に表示された顔画像If上の座標を取得する(S201)。例えば、本実施例において、検者がディスプレイ7に表示された顔画像If上の左右瞳孔の位置をタッチすることで、左右被検眼の瞳孔に対応する位置SP1及び位置SP2の座標がそれぞれ取得される(図9参照)。
 なお、このとき検者がタッチした場所が分かるように、制御部70は、ディスプレイ7の表示を制御し、タッチされた位置SP1及び位置SP2に、視覚的に区別可能なマークを重畳して表示しても良い。また、制御部70は、検者がディスプレイ7に表示された顔画像Ifにおける被検眼の左右を混同しないように、顔画像Ifの左側に被検者の右眼を示す右側表示76Rと、顔画像Ifの右側に被検者の左眼を示す左側表示76Lと、の左右表示76を表示しても良い。また、制御部70は、検者が誤ってタッチをしてしまった場合に入力をやり直すことができるように、クリアボタン78を表示しても良い。例えば、クリアボタン78が押された場合、制御部70は入力されていた位置を破棄し、再度検者からの入力を受け付ける。またさらに、制御部70は、顔画像Ifに対して指定位置が入力されたときの顔画像Ifとその入力位置のマークを、記憶部74に記憶してもよい。その場合、制御部70は、その画像を呼び出してディスプレイ7に表示させることで、指定位置を確認可能にしてもよい。
 また、制御部70は、検者によって左右同じ被検眼の位置が2回以上指定された場合、最後に入力された位置を指定位置として取得してもよい。その場合、制御部70は、左右同じ被検眼の位置が入力されたことを、後述の判定手段を用いて検知してもよい。
 次いで、制御部70は、2カ所の指定位置について、それぞれどちらが左右の被検眼の位置に対応するのかを判別する(S202)。例えば、制御部70は、2カ所の指定位置の位置関係に基づいて被検眼の左右を判別する。すなわち、制御部70は、2カ所の指定位置それぞれについてディスプレイ7上の座標を参照し、x方向の位置を比較する。これによれば、制御部70は、2カ所の指定位置の左右関係を求めることができる。例えば、左側の指定位置は右の被検眼に対応させ、右側の指定位置は左の被検眼に対応させることで、2つの指定位置と左右の被検眼とを対応させることができる。また、2カ所の指定位置に関する左右の判別は、顔画像Ifに対する指定位置の位置関係に基づいて行ってもよい。すなわち、顔画像Ifに対して左側の領域に存在する指定位置は右眼に対応し、右側の領域に存在する指定位置は左眼に対応するとして判別する。なお、左側の領域及び右側の領域は、例えば、実験的に予め定められる領域である。
 次いで、制御部70は、S202で行った左右判別結果に基づいて、2カ所の位置のうち、最初に測定を行うために予め定められた方に対応する指定位置を決定し、決定した方の被検眼に対応する位置の座標に基づいて、検査部2を移動させる方向を求める(S203)。粗アライメントのために検査部2を移動させる方向を定める方法としては、前述のS105の、顔画像の解析によって検出された瞳孔の位置である顔画像上の二次元の座標(x,y)を、検者によって指定された指定位置の座標(x,y)に置き換えればよい。
 なお、本実施例において、左右の被検眼のうち、どちらの被検眼について最初に測定を行うかは、予め設定されており、記憶部74に記憶されている。また、最初に測定が行われる被検眼が予め定められている代わりに、S201で検者が指定した2カ所の位置のうち、先に指定された位置に対応する被検眼が最初に測定されても良い。その場合、制御部70は、左右の判別結果と測定結果の左右を対応させる。
 次いで、制御部70は、指定位置に基づいて駆動部4を制御し、求められた方向に検査部2を移動させることで、粗アライメントを行う(S108)。なお、粗アライメントにおいて、顔画像Ifに対する指定位置に基づいて顎台11の位置が調整されてもよい。例えば、指定位置に対応する被検眼のY方向の位置が駆動部4による検査部2(光軸L1)の移動範囲外にある場合は、制御部70は、顎台駆動部12の駆動を制御し、顎台11をY方向に移動させることで、指定位置に対応する被検眼の位置が検査部2の移動範囲内に入るようにしてもよい。
 次いで、制御部70は、前述の顔画像の解析によって被検眼の位置が正常に検出された場合と同様に、前眼部像の解析によって、アライメント指標投影光学系50によって前眼部に投影されたアライメント指標が検出されるようになると、粗アライメントを行う制御から精密アライメントを行う制御に移行する。制御部70は、駆動部4の駆動を制御することで、前眼部像によるアライメント指標に基づく精密アライメントを行う(S109)。精密アライメントが完了すると、制御部70は被検眼に対して測定を行う(S110)。
 その後、制御部70は左右被検眼のうち、未測定の被検眼に対して粗アライメントを行う(S111)。この場合、制御部70は、S107において取得された顔画像Ifに対する指定位置の座標のうち、未測定のもう一方の被検眼に対応する座標(x,y)を用いて、検査部2を移動させる方向を決定する。そして、制御部70は求められた方向に検査部2を移動させることで、粗アライメントを行う(S111)。
 その後、制御部70は、最初に測定を行った被検眼に対して行った方法と同様にして精密アライメント(S112)と、測定(S113)を行う。
 以上によれば、顔画像の解析による被検眼の位置検出が不良であった場合であっても、検者が手動アライメントする場合に比べ、検者の手間を軽減しつつ、スムーズな自動アライメントが行える。
 <片眼検査>
 次に、片眼検査(左右の被検眼のうち、一方の眼のみ検査)の場合の例を説明する。例えば、眼科装置1には、被検者の右眼および左眼を連続的に検査するための両眼検査モードと、左右の被検眼のうち、右眼のみ選択的に検査するための右眼検査モードと、左眼のみ検査する左眼検査モードと、を選択できる被検眼選択スイッチ(被検眼選択手段)が設けられている(図示を略す)。
 ここで、右眼又は左眼の片眼検査が選択された場合、ディスプレイ7の画面に表示される顔画像においては、画面の左側に被検者の右眼が位置し、画面の右側に左眼が位置して表示され、被検者の左右眼は、検者から見て左右方向が逆になる。このため、片眼検査において、検者は被検眼の左右を間違って認識し、誤った方の被検眼の位置を指定してしまうことがある。
 そこで、制御部70は、検者に顔画像に対して選択された眼の方に指定位置を入力させるように誘導する。例えば、制御部70は、ディスプレイ7の表示を制御し、検者にタッチさせる方の眼が認識できるように誘導表示を行う。
 例えば、右眼が選択された場合、図10のように、制御部70は、ディスプレイ7上に表示される顔画像Ifについて、顔画像の左右の中心から左側領域の輝度と、左右の中心から右側領域の輝度と、に差をつけて表示する。このような誘導表示により、顔画像の左側と右側のうち、輝度が高い方(強調されている方)に含まれている被検眼をタッチし、位置を指定するように誘導することが出来る。
 また、誘導表示は、図10の例に限られない。例えば、図9における右側表示76Rと左側表示76Lに関し、被検眼選択スイッチによって選択された方の眼の表示を、他方に対して区別可能に表示されてもよい。例えば、制御部70は、選択された眼に対応する方を予め決められた色(例えば、オレンジ色)に変化させる。
 <変容例>
 上記の実施例では、指定位置(SP1,SP2)を用いた粗アライメントを行う例として、操作部8により指定位置(SP1,SP2)が入力されたときには、駆動部4の駆動を、顔画像の解析によって検出された被検眼の位置の検出結果に基づく制御から、指定位置に基づく制御に切換える例を説明したが、これに限られない。例えば、操作部8により指定位置が入力されたときには、指定位置(SP1,SP2)を基準にした所定領域内(AP1,AP2)で顔画像の解析による瞳孔位置の検出を行い、その所定領域内の解析によって検出された瞳孔位置(EPR,EPL)に基づいて駆動部4を駆動する制御であってもよい(図11参照)。この制御方法は、顔画像の解析による瞳孔の位置検出の不良のケースとして、誤った部位を瞳孔として検出された場合(例えば、髪の毛、鼻及び口を覆うマスクの影、顔の外側の背景の黒い部分、化粧による反射光のノイズ、黒子、眼帯、傷、眉毛、まつ毛、等によって瞳孔が誤検知される場合あり)に好適に適用される。また、この制御方法は、検者がディスプレイ7を指でタッチする場合において、検者の練度が低く、瞳孔の位置を精度よくタッチして指定できない場合においても好適に適用される。
 また、制御部70は、所定領域内(AP1,AP2)内で顔画像解析が行われた結果、被検眼が検出されなかった場合、指定位置(SP1,SP2)に対してアライメントを行ってもよい。その場合、制御部70は、ディスプレイ7にメッセージを表示することで、被検眼が検出されなかったことと、指定位置(SP1,SP2)に対してアライメントを行うことを検者に報知してもよい。
 なお、制御部70は、誤った部位を瞳孔として検出したことを検知するために、検出した部位の特徴(例えば、周囲とのコントラストの差や、形状)に基づいて、信頼度を求めてもよい。例えば、信頼度とは、検出部位の特徴を評価する値である。例えば、制御部70は、信頼度があらかじめ定められた閾値より低い場合は、誤った部位を瞳孔として検出したと判定し、指定位置の入力を検者に要求してもよい。
 また、指定位置(SP1,SP2)を用いた粗アライメントを行う制御は、次のように行われてもよい。すなわち、例えば、顔画像の解析による瞳孔の位置検出で誤った部位を瞳孔として検出された場合、図12に示すように、瞳孔と検出された複数の候補の領域75a、75b、75c、75d、75e、75f及び75gがディスプレイ7に表示される。検者は、この候補の領域75a-75gの表示を確認し、その中から瞳孔として特定するための領域の位置を、タッチすることで指定する。これにより、制御部70は、指定された指定位置の領域を瞳孔位置の検出対象に限定し、その解析によって検出された瞳孔位置に基づいて駆動部4を制御し、粗アライメントを行う。
 また、上記の実施例では、顔画像に対する指定位置の入力は、被検眼の位置の検出に失敗した場合(取得エラーの場合)に行うものとしたが、これに限られない。例えば、顔画像に基づいた被検眼の位置の検出が長引くと、なかなか粗アライメントが行われず、検者は眼科装置1を操作せずに待機しているために、精密アライメントに移行するまでの時間が長く感じてしまう場合がある。このような場合でも自動アライメントが良好に行われるようにするために、制御部70は、顔画像に基づく被検眼の位置の検出を行っている間に、タッチパネル等による指定位置の入力を受け付けたときには、顔画像に基づく被検眼の位置検出に関わらず、指定位置の入力に基づいて粗アライメントを行ってもよい。
 また、上記の実施例では、顔画像Ifに対して検者が瞳孔位置として2カ所を指定した後に粗アライメントが行われるものとして説明したが、1つの指定位置が入力された後に粗アライメントが行われてもよい。あるいは、例えば、2つ目の指定位置が所定時間内に入力されない場合に、1つ目に入力された指定位置を用いた粗アライメントが開始されてもよい。その場合の制御について、図4及び図6のフローチャート図を用いて説明する。
 図4のフローチャートにおいて、S102でディスプレイ7の入力があった場合、制御部70は、S107で指定位置の座標を取得し、その結果を用いて検査部2を移動させる方向を求める。指定位置が1カ所の場合のS107の処理は、図6のフローチャートに示される。制御部70は、瞳孔位置として1カ所を指定する入力を所定の時間だけ受け付け、指定された位置の座標を取得する(S301)。なお、所定の時間内に入力が行われない場合、例えば、装置はタイムアウトする。タイムアウトした場合、例えば、制御部70は検者に対し、ディスプレイ7に表示された顔画像をタッチし、瞳孔位置を入力する旨を報知しても良い。
 次いで、制御部70は、指定された指定位置が、左右の被検眼のうちのいずれに対応するかの判別を行う(S302)。判別方法の一例として、例えば、制御部70は、顔画像に対し、顔画像の左右の中心軸から左半分がタッチされた場合は右の被検眼の位置が指定されたと判別し、顔画像の左右の中心から右半分がタッチされた場合は左の被検眼の位置が指定されたと判別できる。なお、左右の中心は顔画像を分割する基準の一例であり、装置の構成によって異なっていてもよい。
 次いで、指定された顔画像上の座標(二次元の座標)(x,y)に基づいて、検査部2を移動させる方向を求め(S303)、粗アライメントを行う(図4のS108)。この粗アライメントの方法については、前述した両被検眼の位置を指定し、そのうち一方に対して粗アライメントを行う場合と同様の方法で行うことができる。すなわち、顔画像の解析によって得られた座標(x,y)に基づくアライメント制御について、指定された顔画像上の座標(x,y)に置き換えることで、粗アライメントを行うことができる。
 次いで、制御部70は、前述した場合と同様にして精密アライメントを行い(S109)、アライメントされた方の被検眼の測定を行う(S110)。
 次いで、制御部70は、未測定の被検眼に対して粗アライメントを行う(S111)。入力された被検眼の位置が1カ所である場合、S302での左右判別結果に基づき、指定位置が入力された方の被検眼の測定を終えた後、指定位置が入力されていない方の被検眼を特定し、その被検眼の方向に検査部2を移動させて粗アライメントを行う。
 制御部70は、左右の被検眼はY方向にほぼ同じ高さにあるため、検査部2のY方向への移動を行わず、駆動部4を制御してX方向に移動させる。このとき、制御部70は、左右判別の結果に基づき、もう一方の眼が存在する方向に検査部2を移動させる。左右の被検眼の位置は被検者の顔の中心に対してほぼ左右均等である。このため、検査部2をX方向に移動させるべき移動量は、一方の被検眼を測定したときの基台5の基準位置(中心位置)に対する検査部2の移動量に基づいて取得できる。例えば、X方向における基台5の基準位置(中心位置)に対する検査部2の移動量は、駆動部4のX方向の駆動データから得ることできる。また、被検眼に対するZ方向の検査部2の位置も、左右の被検眼でほぼ同じとみなすことができるため、片方の測定時における検査部2のZ方向位置を利用できる。これらにより、制御部70は、もう片方の被検眼に対する粗アライメントを行い、前眼部撮影光学系60によって取得された前眼部像Iaを解析し、アライメント指標が検出されるようになれば、その検出結果に基づいて精密アライメントを行う。そして、制御部70は、精密アライメントの完了後、自動的にトリガ信号を発して測定光学系20による測定を実行する。制御部70は、両眼の測定結果が得られると、S302の左右判別結果に対応させた左右別の測定結果を出力する。
 以上によれば、検者によって左右の被検眼のうち一方のみの位置が入力される場合においても、アライメントを良好に行うことができる。
 なお、本実施例において、例えば、ディスプレイ7上に表示された顔画像Ifを拡大及び縮小することができてもよい。例えば、検者がタッチパネルでピンチを行うことで、画像を拡大・縮小することができてもよい。例えばこの場合、検者は、顔画像を拡大・縮小させた量に基づいて、被検眼のZ方向の位置を指定することができてもよい。
 また、眼科装置1は、機械学習を用いることで、顔画像If上で指定された位置の情報に基づいて、次回以降の制御部70が顔画像Ifから被検眼を検出する精度を上昇させる、という構成を備えていてもよい。その場合、制御部70は、顔画像上で指定された位置の座標、指定位置とその周囲のコントラストの差、といったパラメータを成功因子として取得する。例えば、得られた成功因子に基づいて、制御部70は次回以降の顔画像解析による被検眼の検出精度を上昇させる。
1 眼科装置
2 検査部
3 顔撮影部
4 駆動部
5 基台
7 ディスプレイ
8 操作部
20 測定光学系
70 制御部 
 

Claims (9)

  1.  被検眼を検査する検査部を備える眼科装置において、
     被検眼に対して前記検査部を3次元的に相対移動させる駆動手段と、
     左右の被検眼を含む顔画像を撮影するための第1撮影手段と、
     被検眼の前眼部像を撮影するための第2撮影手段と、
     前記顔画像に基づいて特定される被検眼の位置を取得する位置取得ステップと、取得された被検眼の位置に基づいて被検眼が前記第2撮影手段の撮影範囲に含まれるように前記駆動手段を制御する第1駆動制御ステップと、前記第1駆動制御ステップの後に前記前眼部像に基づいて前記駆動手段を制御し、被検眼に対する前記検査部の相対位置を調整する第2駆動制御ステップと、を含む調整処理を実行する制御手段と、
     前記顔画像を解析することで被検眼の位置を検出し、検出により特定される被検眼の位置を検出位置として取得する第1取得手段と、
     前記顔画像に対する被検眼の位置の入力操作を受け付け、前記入力操作に基づいて特定される被検眼の位置を指定位置として取得する第2取得手段と、を備える眼科装置。
  2.  請求項1の眼科装置において、
     前記制御手段は、前記検出位置を利用した前記調整処理が開始されてから、前記指定位置の入力操作を受け付けた場合は、前記検出位置に関わらず、前記指定位置に基づいて前記第1駆動制御ステップを行うことを特徴とする眼科装置。
  3.  請求項1又は2の眼科装置において、
     前記第1撮影手段によって撮影された顔画像を表示する表示手段を備え、
     前記第2取得手段は、前記位置取得ステップにおいて、前記表示手段に表示された顔画像に対する被検眼の位置の入力操作に基づいて前記指定位置を取得することを特徴とする眼科装置。
  4.  請求項1~3の何れかの眼科装置において、
     前記制御手段は、左眼および右眼を連続的に検査する場合に、左眼および右眼のそれぞれの位置を、左眼および右眼のうち最初に検査される片方の被検眼に対する前記調整処理での前記位置取得ステップにおいて一括して取得可能であり、
     前記位置取得ステップにおいて、左眼および右眼のそれぞれの位置が一括して取得される場合は、それぞれの眼に対する前記入力操作が要求可能である、ことを特徴とする眼科装置。
  5.  請求項4の眼科装置において、
     前記制御手段は、前記片方の被検眼に対応する指定位置を用いた前記第1駆動制御ステップを予め定められた手順で行い、前記片方の被検眼の検査が終了した後、反対の眼に対応する指定位置を用いて前記第1駆動制御ステップを行うことを特徴とする眼科装置。
  6.  請求項1~5の何れかの眼科装置において、
     前記第2取得手段は、前記顔画像において入力操作によって指定された座標を基準とする前記顔画像の一部を解析対象として被検眼の位置を検出し、検出により特定される被検眼の位置を前記指定位置として取得することを特徴とする眼科装置。
  7.  請求項1~6の何れかの眼科装置において、
     前記検出位置を利用した前記調整処理において、前記検出位置の取得エラーが生じた場合は、前記指定位置の入力操作を検者に対して要求するための報知を行う報知手段を備えることを特徴とする眼科装置。
  8.  請求項1の眼科装置において、
     前記入力操作により入力された指定位置が1つの場合は、前記第1撮影手段による撮影画像における右眼領域と左眼領域のいずれに指定位置が存在するかに基づいて被検眼の左右を判別する判別手段を備え、
     前記制御手段は、
     入力された指定位置に基づいて前記第1駆動制御ステップを行った後に前記第2駆動制御ステップに移行し、
     左右片方の被検眼の検査の終了後に未検査の被検眼を検査するために、前記判別手段の判別結果に基づいて被検眼に対して前記検査部を相対移動させる左右を決定し、
     決定した左右に基づいて未検査の被検眼に前記検査部が近づくように前記駆動手段を制御し、前記第2駆動制御ステップに移行させることを特徴とする眼科装置。
  9.  被検眼を検査する検査部を被検眼に対して3次元的に相対移動させる駆動手段と、左右の被検眼を含む顔画像を撮影するための第1撮影手段と、被検眼の前眼部像を撮影するための第2撮影手段と、を備える眼科装置において実行される制御プログラムであって、
     眼科装置の制御部に実行されることで、
     前記顔画像に基づいて特定される被検眼の位置を取得する位置取得ステップと、取得された被検眼の位置が前記第2撮影手段によって撮影される前記前眼部像の撮影範囲に含まれるように前記駆動手段を制御する第1駆動制御ステップと、前記第1駆動制御ステップの後に前記前眼部像に基づいて前記駆動手段を制御し、被検眼に対する前記検査部の相対位置を調整する第2駆動制御ステップと、を含む調整処理を実行する制御ステップと、
     前記顔画像を解析することで被検眼の位置を検出し、検出により特定される被検眼の位置を検出位置として取得する第1取得ステップと、
     を眼科装置に実行させ、さらに、
     前記顔画像に対する被検眼の位置の入力操作を受け付け、前記入力操作に基づいて特定される被検眼の位置を指定位置として取得する第2取得ステップを、眼科装置に実行させることを特徴とする制御プログラム。
PCT/JP2021/044669 2020-12-25 2021-12-06 眼科装置および眼科装置の制御プログラム WO2022138102A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180086676.5A CN116669614A (zh) 2020-12-25 2021-12-06 眼科装置及眼科装置的控制程序
JP2022572074A JPWO2022138102A1 (ja) 2020-12-25 2021-12-06
US18/340,388 US20230329551A1 (en) 2020-12-25 2023-06-23 Ophthalmic apparatus and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020217515 2020-12-25
JP2020-217515 2020-12-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/340,388 Continuation US20230329551A1 (en) 2020-12-25 2023-06-23 Ophthalmic apparatus and non-transitory computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2022138102A1 true WO2022138102A1 (ja) 2022-06-30

Family

ID=82159563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044669 WO2022138102A1 (ja) 2020-12-25 2021-12-06 眼科装置および眼科装置の制御プログラム

Country Status (4)

Country Link
US (1) US20230329551A1 (ja)
JP (1) JPWO2022138102A1 (ja)
CN (1) CN116669614A (ja)
WO (1) WO2022138102A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199933A1 (ja) * 2022-04-13 2023-10-19 キヤノン株式会社 医用画像撮影装置の制御装置、タッチパネル端末、医用画像撮影システム、医用画像撮影装置の制御プログラム
WO2024009841A1 (ja) * 2022-07-05 2024-01-11 株式会社ニデック 被検者情報取得装置および眼科システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10216089A (ja) * 1997-02-10 1998-08-18 Nidek Co Ltd 眼科装置
JP2006288610A (ja) * 2005-04-08 2006-10-26 Tomey Corporation 眼科装置
JP2009015518A (ja) * 2007-07-03 2009-01-22 Panasonic Corp 眼画像撮影装置及び認証装置
JP2015064700A (ja) * 2013-09-24 2015-04-09 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
JP2017080151A (ja) * 2015-10-29 2017-05-18 キヤノン株式会社 制御装置、眼科装置、システム、制御方法およびプログラム
WO2017171058A1 (ja) * 2016-03-31 2017-10-05 株式会社ニデック 眼科装置用コントローラ、および眼科装置
JP2020156555A (ja) * 2019-03-25 2020-10-01 株式会社トプコン 眼科装置
JP2021040793A (ja) * 2019-09-09 2021-03-18 株式会社トプコン 眼科装置及び眼科装置の制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10216089A (ja) * 1997-02-10 1998-08-18 Nidek Co Ltd 眼科装置
JP2006288610A (ja) * 2005-04-08 2006-10-26 Tomey Corporation 眼科装置
JP2009015518A (ja) * 2007-07-03 2009-01-22 Panasonic Corp 眼画像撮影装置及び認証装置
JP2015064700A (ja) * 2013-09-24 2015-04-09 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
JP2017080151A (ja) * 2015-10-29 2017-05-18 キヤノン株式会社 制御装置、眼科装置、システム、制御方法およびプログラム
WO2017171058A1 (ja) * 2016-03-31 2017-10-05 株式会社ニデック 眼科装置用コントローラ、および眼科装置
JP2020156555A (ja) * 2019-03-25 2020-10-01 株式会社トプコン 眼科装置
JP2021040793A (ja) * 2019-09-09 2021-03-18 株式会社トプコン 眼科装置及び眼科装置の制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199933A1 (ja) * 2022-04-13 2023-10-19 キヤノン株式会社 医用画像撮影装置の制御装置、タッチパネル端末、医用画像撮影システム、医用画像撮影装置の制御プログラム
WO2024009841A1 (ja) * 2022-07-05 2024-01-11 株式会社ニデック 被検者情報取得装置および眼科システム

Also Published As

Publication number Publication date
US20230329551A1 (en) 2023-10-19
JPWO2022138102A1 (ja) 2022-06-30
CN116669614A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
JP6238551B2 (ja) 眼科装置、眼科装置の制御方法、プログラム
JP6716752B2 (ja) 眼科装置
JP6071304B2 (ja) 眼科装置及びアライメント方法
WO2022138102A1 (ja) 眼科装置および眼科装置の制御プログラム
JP6641730B2 (ja) 眼科装置、および眼科装置用プログラム
JP2014079496A (ja) 眼科装置および眼科制御方法並びにプログラム
JP7221587B2 (ja) 眼科装置
JP7271976B2 (ja) 眼科装置
JP6499884B2 (ja) 眼科装置
JP6892540B2 (ja) 眼科装置
EP3150111B1 (en) Ophthalmic apparatus and control program for the ophthalmic apparatus
JP6705313B2 (ja) 眼科装置
JP7249097B2 (ja) 眼科装置及び検眼システム
JP6825338B2 (ja) 自覚式検眼装置および自覚式検眼プログラム
JP6480748B2 (ja) 眼科装置
JP6823339B2 (ja) 眼科装置
JP7248770B2 (ja) 眼科装置
JP6930841B2 (ja) 眼科装置
JP7434729B2 (ja) 眼科装置、および眼科装置制御プログラム
JP6927389B2 (ja) 眼科装置
JP7423912B2 (ja) 眼科装置、および眼科装置制御プログラム
JP7187769B2 (ja) 眼科装置、および眼科装置制御プログラム
WO2020250820A1 (ja) 眼科装置、および眼科装置制御プログラム
JP7101578B2 (ja) 眼科装置及びその作動方法
JP7043758B2 (ja) 眼科装置、およびそれに用いるジョイスティック

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910252

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022572074

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180086676.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910252

Country of ref document: EP

Kind code of ref document: A1