WO2024009841A1 - 被検者情報取得装置および眼科システム - Google Patents

被検者情報取得装置および眼科システム Download PDF

Info

Publication number
WO2024009841A1
WO2024009841A1 PCT/JP2023/023744 JP2023023744W WO2024009841A1 WO 2024009841 A1 WO2024009841 A1 WO 2024009841A1 JP 2023023744 W JP2023023744 W JP 2023023744W WO 2024009841 A1 WO2024009841 A1 WO 2024009841A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
eye
position information
information acquisition
ophthalmological
Prior art date
Application number
PCT/JP2023/023744
Other languages
English (en)
French (fr)
Inventor
涼介 柴
賢士朗 藤生
Original Assignee
株式会社ニデック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニデック filed Critical 株式会社ニデック
Publication of WO2024009841A1 publication Critical patent/WO2024009841A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Definitions

  • the present disclosure relates to a subject information acquisition device that acquires information on a subject undergoing an examination with an ophthalmologic device, and an ophthalmology system including the subject information acquisition device.
  • the examination of the eye to be examined using many ophthalmological devices needs to be performed with the relative position between the ophthalmological device and the eye to be examined adjusted to an appropriate position.
  • an operator e.g., a doctor or a laboratory technician
  • the height of the examination axis when the examination is performed by the first eye examination unit is Based on the information and the difference in eye level between the first eye test unit and the second eye test unit, the height of the test axis during the test by the second eye test unit is adjusted.
  • the relative position of any ophthalmological device to the subject's eye needs to be adjusted manually or automatically at least once. Therefore, a technique is desired that allows the relative position of the eye to be examined and the ophthalmological apparatus to be adjusted to an appropriate position in advance even for a subject who is performing an examination using an ophthalmological apparatus for the first time.
  • a typical objective of the present disclosure is to provide a patient information acquisition device and an ophthalmology system that can further improve the efficiency of examining the eye of a patient using an ophthalmology device.
  • a patient information acquisition device provided by a typical embodiment of the present disclosure is a patient information acquisition device used in an ophthalmology system that examines the eye of a patient, and the ophthalmology system
  • the patient information acquisition device includes one or more ophthalmological devices that examine the subject's eye in a state where the relative position with respect to the eye examination is adjusted to an appropriate position
  • the subject information acquisition device includes a body temperature detection unit that detects the subject's body temperature.
  • a photographing unit that photographs a face image that is an image including the face of the subject, and a control unit, and the control unit detects the body temperature of the same subject by the body temperature detection unit; a detection/photographing step of simultaneously performing photographing of a face image by the photographing section; and acquiring eye position information, which is information regarding the position of the eyes of the subject, based on the face image photographed by the photographing section.
  • An ophthalmologic system provided by a typical embodiment of the present disclosure is an ophthalmologic system that inspects an eye of a subject, and inspects the eye with its relative position relative to the eye to be examined adjusted to an appropriate position.
  • the patient information acquisition device includes one or more ophthalmological devices, a patient information acquisition device that acquires information on the patient, and a control unit, and the patient information acquisition device is configured to detect body temperature of the patient.
  • the control unit includes a detection unit and a photographing unit that photographs a face image that is an image including the face of the subject, and the control unit is configured to detect the body temperature by the body temperature detection unit and to detect the body temperature of the same subject.
  • position information acquisition step, and at least one of the ophthalmological apparatuses is configured to adjust the relative position of the subject's eye and the ophthalmic apparatus to an appropriate position based on the eye position information of the subject. In the adjusted state, the eye to be examined is examined.
  • the efficiency of examining the subject's eye by the ophthalmology device is further improved.
  • the subject information acquisition device exemplified in the present disclosure is used in an ophthalmology system that examines the eye of a subject.
  • An ophthalmic system includes one or more ophthalmic devices.
  • the ophthalmological apparatus examines the eye to be examined in a state where the relative position with respect to the eye to be examined is adjusted to an appropriate position.
  • the subject information acquisition device includes a body temperature detection section, an imaging section, and a control section.
  • the body temperature detection section detects the body temperature of the subject.
  • the photographing unit photographs a face image that is an image including the subject's face.
  • the control unit executes a detection/imaging step, an eye position information acquisition step, and an eye position information output step.
  • the control section causes the body temperature detection section to detect body temperature and the photographing section to photograph a face image of the same subject.
  • the control unit acquires eye position information, which is information regarding the position of the subject's eyes, based on the face image photographed by the photographing unit.
  • the control unit outputs eye position information as information for adjusting the relative position of the eye of the subject and the ophthalmological apparatus to an appropriate position in at least one of the ophthalmological apparatuses.
  • both the body temperature detection and the photographing of a facial image of the subject are performed, and the eye position of the subject is determined based on the photographed facial image. Information is obtained.
  • the eye position information is output as information for adjusting the relative position with respect to the eye to be examined in at least one of the ophthalmological apparatuses.
  • Ophthalmological equipment includes various devices for performing examinations of the eye to be examined (for example, photographing the eye to be examined, measuring ocular characteristics of the eye to be examined, and observing the eye to be examined (including observation for surgery or treatment, etc.).
  • an ophthalmological device for photographing the eye to be examined at least one of an OCT device, a laser scanning ophthalmoscope (SLO), a fundus camera, a goniometric device, a corneal endothelial cell imaging device (CEM), etc.
  • SLO laser scanning ophthalmoscope
  • CEM corneal endothelial cell imaging device
  • the ophthalmological device for measuring the ocular characteristics of the eye to be examined at least one of an eye refractive power measuring device, a corneal shape measuring device, an axial length measuring device, an intraocular pressure measuring device, etc. can be adopted.
  • a photocoagulation device, a YAG laser surgical device, a slit lamp, etc., for performing surgery or treatment on the tissue of the eye to be examined while observing the eye to be examined, may be used as the ophthalmological device.
  • the eye position information may include information regarding the height from the subject's chin to the eyes.
  • an ophthalmological device that adjusts the position based on the position of the jaw of the patient's eye for example, an ophthalmological device that examines the patient's eye with the patient's chin resting on a jaw rest
  • the ophthalmological device and the patient's eye The relative position of is adjusted appropriately based on the eye position information.
  • the eye position information may include information regarding the interpupillary distance of the subject.
  • the relative positions between each of the subject's left and right eyes and the ophthalmological apparatus are appropriately adjusted based on the eye position information.
  • the eye position information may include information regarding the height from the subject's eyes to the forehead. In this case, the positions of the ophthalmological apparatus and the eye to be examined are appropriately adjusted based on the height from the eye to the forehead of the examinee.
  • a specific method for adjusting the relative position of the eye to be examined and the ophthalmological apparatus to an appropriate position based on the eye position information can be selected as appropriate.
  • at least one of the ophthalmological apparatuses may include a drive unit that adjusts the relative position of the subject's eye and the ophthalmic apparatus by moving at least one of the subject's face and the ophthalmic apparatus.
  • the control unit of the ophthalmologic apparatus adjusts the relative position of the eye to be examined and the ophthalmologic apparatus to an appropriate position by controlling the operation of the drive unit based on the eye position information output by the subject information acquisition device. You can.
  • At least one of the devices provided in the ophthalmology system collects the eye position information of the patient to be examined relative to the eye to be examined and the ophthalmology device. It may also be output as reference information for having the user adjust the position.
  • the relative position of the eye to be examined and the ophthalmological apparatus may be manually adjusted by a user who has grasped the eye position information.
  • the eye position information may be output by being displayed on the display unit, or may be output by being printed on paper, for example.
  • the eye position information may be output by being recorded on a magnetic card, RFID, or the like.
  • the ophthalmological apparatus itself is often equipped with a function to automatically adjust the relative position of the apparatus and the subject's eye (so-called auto-alignment function).
  • auto-alignment function a function to automatically adjust the relative position of the apparatus and the subject's eye.
  • the ophthalmological device itself adjusts the relative position more accurately using the auto alignment function, making it more efficient than before.
  • the relative positions are adjusted appropriately. Therefore, the accuracy of the eye position information acquired by the subject information acquisition device may not be so high.
  • the control unit of the patient information acquisition device may be built into the patient information acquisition device, or may be installed in a device connected to the patient information acquisition device (for example, a personal computer, a mobile terminal, an ophthalmological device, etc.). ) may be built in.
  • the control unit built into the subject information acquisition device and the control unit built into another device work together to function as the control unit of the subject information acquisition device.
  • the subject information acquisition device is placed at a location different from the installation location of the ophthalmological device (for example, at the entrance or reception desk of the facility).
  • the photographing unit may include a depth information acquisition means that can acquire depth information to the photographic subject (which may also be expressed as information on the distance to the photographic subject).
  • the control unit may acquire eye position information of the subject based on the photographed face image and depth information to the face of the subject to be photographed. In order to obtain more accurate eye position information, it is desirable to refer to depth information in addition to the face image.
  • both the face image and the depth information can be appropriately acquired, so that the eye position information can be acquired more appropriately.
  • depth information may be acquired using a known method employed in a three-dimensional camera (eg, stereo method, ToF method, structured illumination method, etc.).
  • the stereo method is a method for acquiring depth information based on images captured by multiple cameras.
  • the ToF method is a method for acquiring depth information based on the time it takes for light emitted from a light source to return to the imaging unit.
  • the structured illumination method is a method in which illumination light (such as an index) is irradiated onto an object and depth information is acquired based on the state of the irradiated light.
  • the depth information may be acquired by a distance measuring sensor that measures the distance to the subject's face, which is the object to be photographed.
  • the photographing unit may photograph a comparison object (for example, a measuring tape with scales, etc.) whose size, length, width, etc. are known, together with the subject's face.
  • the control unit may acquire depth information based on the size of at least a portion of the comparison object in the face image.
  • the subject information acquisition device may further include a face fixing unit that fixes the subject's face at a predetermined position relative to the imaging unit.
  • the control unit may acquire eye position information of the subject based on the relative positional relationship between the imaging unit and the subject's face fixed by the face fixing unit.
  • the position of the face relative to the imaging unit for example, the distance between the imaging unit and the face
  • eye position information can be acquired more accurately than when the position of the face at the time of photographing changes with respect to the photographing unit.
  • the position of the face relative to the photographing unit is known, it is also possible to obtain approximate eye position information based on the photographed two-dimensional image.
  • the control unit may further execute a subject information storage step of storing the eye position information in the storage device in association with the subject from whom the eye position information has been acquired.
  • the subject to be examined is identified, and the relative position of the eye to be examined and the ophthalmic device is determined based on eye position information stored in the storage device in association with the identified patient. may be adjusted to an appropriate position.
  • the relative position between the eye to be examined and the ophthalmic apparatus is adjusted appropriately based on the eye position information of the subjects being examined. Ru.
  • the one or more ophthalmological devices included in the ophthalmological system may include an ophthalmological device capable of acquiring eye position information of a subject during an examination.
  • the control unit may further execute an examination position information acquisition step and a replacement step.
  • the examination position information acquisition step the control unit acquires examination eye position information that is the subject's eye position information that the ophthalmological apparatus actually acquires during the examination.
  • the replacing step the control unit replaces, in the ophthalmological apparatus included in the ophthalmological system, the eye position information to be referred to in the next and subsequent examinations of the subject from the eye position information stored in the subject information storage step at the time of the examination. Replace with eye position information.
  • the eye position information at the time of the examination acquired by the ophthalmological device is often more accurate than the eye position information acquired using the photographing unit of the subject information acquisition device because it is the eye position information at the time of the examination. . Therefore, by replacing the eye position information that is referenced during the next and subsequent examinations with the eye position information at the time of the examination from the eye position information acquired using the imaging unit of the examiner information acquisition device, the eye position information that will be referenced during the next and subsequent examinations ( During subsequent examinations (including subsequent examinations conducted on the same day as the first examination), the relative position between the eye to be examined and the ophthalmological apparatus is adjusted more appropriately.
  • the specific method for the ophthalmological apparatus to acquire the eye position information at the time of examination can also be selected as appropriate.
  • the ophthalmological apparatus may acquire eye position information at the time of the test based on an image of the subject's face taken during the test. Further, the ophthalmological apparatus may acquire eye position information at the time of examination based on control position information of the ophthalmological apparatus whose relative position with respect to the subject's eye has been adjusted to an appropriate position.
  • the control unit may further execute an identifier output step of outputting an identifier indicating the eye position information acquired in the eye position information acquisition step.
  • the relative position of the eye to be examined and the ophthalmologic apparatus may be adjusted to an appropriate position based on eye position information indicated by the identifier output in the identifier output step. In this case, by reading the identifier, the relative position of the eye to be examined and the ophthalmological apparatus is appropriately adjusted.
  • the control unit may output the identifier by causing a printing device capable of printing the identifier to print the identifier indicating the eye position information. Further, the control unit may output the identifier by transmitting an image of the identifier indicating the eye position information to a mobile terminal (for example, a smartphone) used by the subject.
  • a mobile terminal for example, a smartphone
  • the control unit may further execute a warning step in which a warning process is performed when the body temperature of the subject detected in the detection/imaging step exceeds a reference value.
  • the subject information acquisition device can perform a warning process when a subject whose body temperature exceeds the reference value is discovered while acquiring eye position information of the subject. Therefore, it becomes easier for business to proceed more smoothly.
  • control unit may warn that the subject's body temperature exceeds a reference value using at least one of a sound, a light source, and a display on a screen. Further, the control unit may output a signal, e-mail, or the like indicating that the subject's body temperature exceeds a reference value to a device or the like used by an employee of the facility.
  • Various processes such as the detection/imaging step and the eye position information acquisition step described above may be executed by the control unit of the subject information acquisition device among the control units of the plurality of devices included in the ophthalmology system. It may be executed by a control unit other than the subject information acquisition device. Furthermore, the control units of multiple devices may cooperate to execute various processes (steps).
  • the control unit of the ophthalmology system may further execute a subject identification step of identifying a subject to be examined by the ophthalmology apparatus.
  • At least one of the ophthalmological devices performs an examination of the eye to be examined in a state in which the relative position of the eye to be examined and the ophthalmological device is adjusted to an appropriate position based on the eye position information of the patient identified in the patient identification step. may be executed.
  • the relative position between the eye to be examined and the ophthalmological device is determined appropriately based on the eye position information of the specified subject to be examined. is adjusted to
  • the control unit of the ophthalmology system identifies the patient to be examined by comparing the facial image of the patient to be examined with the facial image photographed in the detection/photography step. You can.
  • the face image of the subject photographed by the subject information acquisition device is used not only to obtain eye position information of the subject, but also to identify the subject to be examined. Therefore, by employing the subject information acquisition device, the overall work becomes more efficient and easier to proceed smoothly.
  • control unit of the ophthalmology system may identify the subject to be examined by acquiring at least one of the subject's name, ID, medical record number, and the like.
  • information on the subject to be examined may be acquired using an identifier or the like, or may be input into the ophthalmology system by the user.
  • FIG. 1 is a block diagram showing a schematic configuration of an ophthalmologic system 1.
  • FIG. FIG. 2 is a side view of the subject information acquisition device 10 in a state of acquiring information about a subject. 2 is a diagram showing an example of a face image 2 taken by the subject information acquisition device 10.
  • FIG. FIG. 2 is a side view of the ophthalmological apparatus 20 in a state where an examination of a subject's eye E is being performed. It is an example of a flowchart of a patient information acquisition process executed by the patient information acquisition device 10 (ophthalmology system 1). It is an example of the flowchart of the test
  • the ophthalmology system 1 of this embodiment includes a subject information acquisition device 10 and one or more ophthalmology devices 20.
  • the subject information acquisition device 10 is connected to the ophthalmological device 20 via at least one of wired communication, wireless communication, and a network.
  • the subject information acquisition device 10 acquires information on subjects who have visited the facility.
  • the subject information acquisition device 10 of the present embodiment detects the body temperature of each subject and captures a facial image, and also detects the eyes of the subject based on the captured facial image. Obtain eye position information, which is information related to position.
  • the patient information acquisition device 10 is preferably installed at a location different from the location where the ophthalmologic device 20 is installed (for example, at the entrance or reception desk of a facility).
  • the subject information acquisition device 10 of this embodiment includes a control unit 11 , an operation section 14 , a display section 15 , a body temperature detection section 16 , an imaging section 17 , a speaker 18 , and an identifier output section 19 .
  • the subject information acquisition device 10 of this embodiment includes a face fixing section 9 (see FIG. 2) that fixes the subject's face at a predetermined position with respect to the imaging section 17.
  • the face fixing section 9 can also be omitted.
  • the subject information acquisition device 10 of this embodiment is used while being installed on an installation surface (floor surface).
  • the subject information acquisition device 10 may be used while being held by the user.
  • the control unit 11 includes a CPU 12 that is a controller that controls control, and a storage device 13 that can store programs, data, and the like.
  • the CPU 12 built into the subject information acquisition device 10 functions as a control unit that controls the subject information acquisition device 10.
  • the CPU 12 also functions as a control unit that controls at least a portion of various controls in the ophthalmologic system 1 .
  • a control unit built in a device for example, a personal computer, a mobile terminal, or an ophthalmologic apparatus 20 ) connected to the subject information acquisition apparatus 10 controls the subject information acquisition apparatus 10 and the ophthalmology system 1 . It may function as at least one of the control units. Further, the CPU 12 built in the patient information acquisition device 10 and the CPU 12 built in another device work together to function as a control unit for at least one of the patient information acquisition device 10 and the ophthalmology system 1. You may.
  • the operation unit 14 receives various operation instructions from the user.
  • a touch panel installed on the display surface of the display unit 15 is used as the operation unit 14.
  • at least one of a button, a mouse, a keyboard, a remote controller, etc. may be used as the operation unit 14.
  • the display unit 15 displays various images. As an example, on the display unit 15 of this embodiment, an image (moving image) photographed by the photographing unit 17 is displayed in real time, and an appropriate image of the face of the examinee is displayed to obtain examinee information. An indicator indicating the position (for example, a frame indicating an appropriate facial outline position, etc.) is displayed.
  • the subject information acquisition device 10 performs the process of detecting the body temperature of the subject and photographing and saving the face image when the position of the subject's face is at the appropriate position indicated by the index. Execute.
  • the body temperature detection unit 16 detects the body temperature of the subject.
  • the specific configuration of the body temperature detection section 16 can be selected as appropriate. For example, infrared rays emitted from a detection target (in this embodiment, the subject's face) are focused on a detection element, and the temperature of the detection target (the subject's body temperature) is determined based on the change in temperature detected by the detection element.
  • a radiation thermometer or the like that detects the body temperature without contact may be used as the body temperature detection section 16. Further, the body temperature detection section 16 and the photographing section 17 may be used together.
  • a thermal camera or the like that photographs the detection target while detecting the two-dimensional distribution of infrared rays emitted from the detection target may be employed as the device that serves both the body temperature detection section 16 and the photographing section 17. Further, the body temperature detection unit 16 may detect the body temperature of the subject by contacting the subject.
  • the photographing unit 17 photographs a face image that is an image including the subject's face.
  • a three-dimensional camera 3D camera
  • 3D camera is capable of acquiring not only two-dimensional image information of a subject to be photographed (in this embodiment, the subject's face) but also depth information up to the subject. ) is used as the photographing section 17.
  • the depth information is also referred to, so that the eye position information is acquired more accurately. Note that it is possible to use either an active type camera or a passive type camera as the three-dimensional camera.
  • the active method is a method in which depth information to the object to be photographed is obtained based on the time it takes for radio waves or the like emitted towards the object to be photographed to be reflected back by the object to be photographed.
  • Active type cameras include, for example, ToF cameras.
  • the passive method is a method that acquires depth information without irradiating energy such as radio waves toward the object to be photographed. Examples of passive cameras include stereo cameras and light field cameras. Although details will be described later, it is also possible to acquire depth information from a reference position (for example, the position of an imaging unit, etc.) to an object to be photographed using a method different from the method using a three-dimensional camera.
  • the accuracy of the eye position information acquired based on the facial image is improved. Furthermore, depending on the configuration of the ophthalmologic apparatus 20, there are cases where the eye position information does not require high accuracy. In these cases, a normal two-dimensional camera may be used as the photographing unit 17 instead of a three-dimensional camera.
  • the arrangement of the display section 15 and camera of the photographing section 17 of this embodiment will be explained in detail.
  • the camera, the display unit 15, and the camera are arranged in order along the vertical direction.
  • the two cameras with a large vertical separation, it becomes easier to appropriately capture the shape of the jaw, and the height from the jaw to the eye can be more accurately detected.
  • the second form four cameras are arranged to form the corners of a rectangle, and the display section 15 is displayed at the center of the four cameras. In this case, it becomes easier to detect eye position information more accurately.
  • the speaker 18 generates various sounds. For example, when the subject information acquisition device 10 of the present embodiment has completed detecting the subject's body temperature and photographing a face image, the speaker 18 generates a completion sound indicating that body temperature detection and photographing have been completed. let Further, the subject information acquisition device 10 can also cause the speaker 18 to generate a warning sound when the subject's body temperature detected by the body temperature detection unit 16 exceeds a reference value.
  • the identifier output unit 19 outputs an identifier (for example, QR code: registered trademark, etc.) indicating eye position information acquired based on the face image.
  • the identifier output unit 19 of this embodiment outputs an identifier by printing an identifier indicating eye position information on paper.
  • the identifier output unit 19 may output the identifier by transmitting an image of the identifier indicating eye position information to a mobile terminal used by the subject, the ophthalmological apparatus 20, or the like.
  • the ophthalmological apparatus 20 examines the eye E of the subject. Specifically, the ophthalmological apparatus 20 performs at least one of the following tests, such as photographing the eye to be examined, measuring ocular characteristics of the eye to be examined, and observing the eye to be examined (including observation for surgery or treatment). .
  • the ophthalmological apparatus 20 performs at least one of an OCT device, a laser scanning ophthalmoscope (SLO), a fundus camera, a goniometric imaging device, a corneal endothelial cell imaging device (CEM), etc. is employed as the ophthalmological device 20 that photographs the eye to be examined. can.
  • SLO laser scanning ophthalmoscope
  • CEM corneal endothelial cell imaging device
  • the ophthalmological device 20 that measures the ocular characteristics of the eye to be examined, at least one of an eye refractive power measuring device, a corneal shape measuring device, an axial length measuring device, an intraocular pressure measuring device, etc. can be adopted. Further, a photocoagulation device, a YAG laser surgical device, a slit lamp, or the like, which performs surgery or treatment on tissues of the eye to be examined while observing the eye to be examined, may be used as the ophthalmologic device 20.
  • the ophthalmological apparatus 20 of this embodiment includes a control unit 21, an operation section 24, a display section 25, a drive section 26, an imaging section 27, and an inspection unit 28. Further, an identifier reading section 29 may be connected to at least one of the ophthalmological apparatuses 20. Note that depending on the type of the ophthalmologic apparatus 20, at least some of the components (for example, the display section 25, the photographing section 27, etc.) may be omitted.
  • the control unit 21 includes a CPU 22 which is a controller in charge of control, and a storage device 23 capable of storing programs, data, and the like.
  • the CPU 22 controls the ophthalmologic apparatus 20 . Further, the CPU 22 may function as a control unit that controls the ophthalmologic system 1 alone or in cooperation with other control units.
  • the operation unit 24 receives various operation instructions from the user. For example, at least any of a touch panel, a button, a mouse, a keyboard, a joystick, a remote controller, etc. can be employed as the operation unit 24.
  • the display section 25 displays various images.
  • the drive unit 26 adjusts the relative position of the subject's eye E and the ophthalmological apparatus 20. For example, the drive unit 26 moves at least one of the position of the face support unit 31 (see FIG. 4) that supports the face of the subject and the position of the inspection unit 28 of the ophthalmological apparatus 20, thereby moving the subject's eye E. and the ophthalmological device 20. Details of the drive section 26 will be described later with reference to FIG. 4.
  • the imaging unit 27 is arranged so that the positional relationship with respect to the inspection unit 28 is constant.
  • the photographing unit 27 photographs the subject's face.
  • the CPU 22 is capable of acquiring eye position information (eye position information at the time of examination), which is information regarding the position of the subject's eyes, based on the photographed facial image.
  • the inspection unit 28 includes a configuration for executing an inspection of the eye E to be examined.
  • the inspection unit 28 includes an OCT optical system, an SLO optical system, a fundus camera optical system, a goniometric imaging optical system, a corneal endothelial cell imaging optical system, an axial length measurement optical system, an eye refractive power measurement optical system, and a corneal shape measurement optical system. It may include at least one of an optical system, an intraocular pressure measuring optical system, an observation optical system for use during surgery, an observation optical system for use during treatment, a slit lamp optical system, and the like.
  • the identifier reading unit 29 reads the identifier output by the identifier output unit 19 and acquires the eye position information indicated by the identifier.
  • the identifier reading unit 29 may be connected to the ophthalmological apparatus 20 or may be built in the ophthalmological apparatus 20.
  • the subject information acquisition device 10 of this embodiment includes a face fixing section 9.
  • the face fixing unit 9 fixes the subject's face at a predetermined position with respect to the photographing unit 17 of the subject information acquisition device 10.
  • the subject information acquisition device 10 detects the body temperature of the subject by the body temperature detection unit 16 and captures the face image of the subject by the imaging unit 17 while the face of the subject is fixed by the face fixing unit 9. 2 (see FIG. 3).
  • the face fixing part 9, the background, etc. that are reflected in the image are omitted.
  • the face fixing section 9 the position of the face relative to the photographing section 17 (for example, the distance DT between the photographing section 17 and the face, etc.) is known.
  • the CPU 12 of the subject information acquisition device 10 determines the position of the subject's eyes E (right eye ER and left eye EL) based on the photographed face image 2.
  • Obtain eye position information which is information related to the eye position.
  • the CPU 12 may acquire eye position information by performing image processing on the face image 2 and detecting the positions of the eyes ER, EL, chin, etc. of the face appearing in the face image 2.
  • the CPU 12 provides information regarding the height EH from the subject's chin to the eyes ER and EL (for example, a specific numerical value of the height EH, or a comparison of the height EH with some standard).
  • the relative height between the subject's eyes ER, EL and the ophthalmologic apparatus 20 is appropriately adjusted based on the eye position information.
  • the CPU 12 acquires information regarding the interpupillary distance PD between the right eye ER and left eye EL of the subject (for example, a specific numerical value or relative value of PD) as eye position information.
  • the CPU 12 may acquire information regarding the height EH from the subject's eyes ER and EL to the forehead as eye position information.
  • the position of the face relative to the imaging section 17 at the time of photographing is known.
  • the CPU 12 determines the subject's face based on the relative positional relationship between the photographing section 17 and the subject's face fixed by the face fixing section 9 (for example, the distance DT between the photographing section 17 and the face). Obtain eye position information. Therefore, compared to the case where the position of the face at the time of photographing changes with respect to the photographing unit 17, eye position information can be acquired more accurately.
  • the photographing section 17 may be a two-dimensional camera instead of a three-dimensional camera.
  • the CPU 12 acquires the eye position information of the subject based on the face image 2 and the depth information up to the face of the subject to be photographed. Therefore, eye position information can be acquired more accurately than when depth information is not used.
  • the method of acquiring depth information from the reference position (for example, the photographing unit 17, etc.) to the photographing target can be selected as appropriate.
  • depth information may be acquired by a distance sensor that measures the distance to the face of the subject to be photographed.
  • the subject information acquisition device 10 may further include an index projection unit that projects an index for acquiring depth information onto the face of the subject.
  • the CPU 12 may acquire depth information based on the size of the index appearing in the photographed face image 2.
  • the photographing unit 17 may photograph a comparison object (for example, a measuring tape with scales, etc.) whose size, length, width, etc. are known, together with the subject's face. .
  • the CPU 12 may acquire depth information based on the size of at least a portion of the comparison object appearing in the face image 2. Note that if depth information is obtained together with the face image 2, the face fixing unit 9 may be omitted. In this embodiment, as described above, depth information is acquired by using a known three-dimensional camera.
  • FIG. 4 is a side view of the ophthalmological apparatus 20 in a state where an examination of the subject's eye E is being performed.
  • the ophthalmological apparatus 20 includes an examination unit 28.
  • the inspection unit 28 includes a configuration for executing an inspection of the eye E to be examined.
  • the ophthalmologic apparatus 20 includes a base 30 , a face support unit 31 , a housing 32 , an operation section 24 , a display section 25 , a drive section 26 , and an imaging section 27 .
  • the base 30 supports the entire ophthalmological device 20.
  • the face support unit 31 is fixed to the base 30 and fixes (supports) the subject's face at a predetermined position relative to the photographing section 27 and the examination unit 28 of the ophthalmological apparatus 20 during examination.
  • the position of the face supported by the face support unit 31 is a known position with respect to the imaging section 27 and the inspection unit 28.
  • the housing 32 houses the inspection unit 28 and the like, and fixes the display section 25 and the like in a predetermined position. Further, as described above, various operation instructions by the user are input to the operation unit 24.
  • the display section 25 displays various images.
  • the drive unit 26 moves at least one of the position of the face support unit 31 and the position of the examination unit 28 (in this embodiment, the housing 32 that houses the examination unit 28), so that the eye E to be examined and the ophthalmological apparatus are moved. Adjust the relative position between 20.
  • the drive unit 26 of this embodiment moves the housing 32 in the left-right direction (X direction), the up-down direction (Y direction), and the front-back direction (Z direction, in other words, in the working distance direction) with respect to the base 30. can be moved to
  • the drive unit 26 includes an actuator for moving the housing 32 in each predetermined movable direction.
  • the drive unit 26 is driven based on a control signal from the CPU 22 (see FIG. 1). Note that the drive unit 26 may adjust the relative position in the vertical direction between the eye E and the ophthalmological apparatus 20 by moving the position (for example, the vertical position) of the face support unit 31.
  • the imaging unit 27 is arranged so that the positional relationship with respect to the inspection unit 28 is constant.
  • the photographing unit 27 photographs the subject's face supported by the face support unit 31.
  • the CPU 22 can acquire eye position information, which is information regarding the position of the eyes on the subject's face, based on the photographed face image.
  • the photographing unit 17 of the subject information acquisition apparatus 10 is used. It is often more accurate than eye position information obtained by Moreover, the ophthalmological apparatus 20 can also acquire eye position information at the time of examination based on control position information in a state where the relative position with respect to the subject's eye has been adjusted to an appropriate position.
  • Subject information acquisition process Referring to FIG. 5, the subject information acquisition process executed by the subject information acquisition device 10 (or the ophthalmology system 1) will be described.
  • the CPU 12 of the subject information acquisition device 10 executes the subject information acquisition process.
  • the CPU 12 executes the subject information acquisition process illustrated in FIG. 5 in accordance with the subject information processing program stored in the storage device 13.
  • a control unit of a device different from the subject information acquisition apparatus 10 may execute the subject information acquisition process. Further, a plurality of control units may cooperate to execute the subject information acquisition process.
  • the patient information acquisition device 10 be placed at the entrance or reception of the facility where the ophthalmology system 1 is installed.
  • the subject visits the facility, the subject moves to the front of the subject information acquisition device 10, and while checking the moving image captured by the camera unit 17 and displayed on the display unit 15, the subject moves his or her face into the camera unit. 17 to an appropriate position within the photographing range.
  • the subject information acquisition device 10 includes the face fixing unit 9, the subject fixes his or her face to the face fixing unit 9, so that the position of the subject's face can be adjusted for photographing and body temperature detection. This will be the appropriate position for this purpose.
  • the CPU 12 determines whether the subject's face has moved to an appropriate position for body temperature detection and facial image photographing (S11). If the face has not moved to the appropriate position (S11: NO), the process of S11 is repeated and a standby state is entered.
  • the CPU 12 determines that the subject's face has moved to the appropriate position (S11: YES)
  • the body temperature detection unit 16 performs the process of detecting the subject's body temperature
  • the photographing unit 17 processes the subject's face image 2.
  • the photographing process automatically starts (S12). Note that the timing of detecting the subject's body temperature and the timing of photographing the subject's face image 2 do not need to be at the same time.
  • the CPU 12 determines whether or not the subject's body temperature detected in S12 exceeds the reference value (S14). If the body temperature does not exceed the reference value (S14: NO), the process directly proceeds to S16. If the body temperature exceeds the reference value (S14: YES), the CPU 12 executes a warning process to warn that the subject's body temperature is high (S15). As a result, the possibility that a subject who has contracted an infectious disease such as the new coronavirus or influenza virus will spread the infectious disease within the facility is appropriately reduced.
  • the warning process may be performed by at least one of sound, lighting of a light source, display on a screen, etc., or may be performed by outputting a signal or e-mail to a device within the facility.
  • the CPU 12 acquires the subject's eye position information based on the subject's face image 2 photographed in S12 (S16).
  • the specific method for acquiring eye position information based on the face image 2 is as described above.
  • the CPU 12 obtains more accurate eye position information by referring to at least one of the depth information at the time of photographing and the relative positional relationship between the photographing unit 17 and the face together with the face image 2. do.
  • the CPU 12 stores the eye position information acquired in S16 in the storage device 13 in association with the subject who acquired the information (S17).
  • a specific method for storing the eye position information in association with the subject can be selected as appropriate.
  • the CPU 12 stores eye position information in association with the face image 2 of the subject photographed in S12.
  • the CPU 12 may store the eye position information in association with, for example, the subject's name or ID.
  • the CPU 12 outputs an identifier indicating the eye position information acquired in S16 (S18). After that, the process returns to S11. As described above, in this embodiment, the CPU 12 outputs the identifier by printing the identifier indicating the eye position information on paper using the identifier output unit 19. Note that it is also possible to omit at least one of the processes in S17 and S18.
  • the inspection process executed by the ophthalmologic apparatus 20 (or the ophthalmologic system 1) will be described.
  • the inspection process based on the already acquired eye position information of the subject to be inspected, so that the relative position between the eye to be inspected and the ophthalmological apparatus 20 (specifically, the inspection unit 28) becomes an appropriate position.
  • the position of the ophthalmological apparatus 20 (specifically, the position of at least one of the examination unit 28 and the face support unit 31) is adjusted in advance.
  • the test unit 28 tests the eye to be examined.
  • the CPU 22 of the ophthalmologic apparatus 20 executes the inspection process.
  • the CPU 22 executes the inspection process illustrated in FIG.
  • the CPU 22 of the ophthalmological apparatus 20 and other devices may cooperate to execute the examination process. That is, at least part of the processing in the examination processing illustrated in FIG. 6 may be executed by a control unit other than the ophthalmologic apparatus 20.
  • the CPU 22 determines whether the identifier indicating eye position information has been read by the identifier reading unit 29 (see FIG. 1) (S21).
  • the CPU 22 reads the identifier based on the eye position information indicated by the read identifier.
  • the position of at least one of the examination unit 28 and the face support unit 31 is adjusted in advance so that the relative position of the eye to be examined and the examination unit 28 is an appropriate position (S22). After that, the process moves to S27.
  • the CPU 22 determines whether the subject to be examined has been identified (S24). As an example, in the present embodiment, when the CPU 22 acquires a facial image of a subject to be examined, the CPU 22 converts the acquired facial image into a facial image 2 (Fig. 3) to identify the subject to be tested. As described above, the subject's face image 2 photographed during body temperature detection is stored in the storage device 13 in association with the subject's eye position information. As described above, in this embodiment, the facial image 2 taken during body temperature detection is used not only to obtain eye position information of the subject, but also to identify the subject to be examined. It will be done. Therefore, by employing the subject information acquisition device 10, the entire business becomes more efficient and easier to proceed smoothly.
  • the face image acquired in S24 for comparison with the face image 2 photographed during body temperature detection may be photographed by any photographing unit.
  • the ophthalmological apparatus 20 includes the photographing section 27, a face image photographed by the photographing section 27 of the ophthalmological apparatus 20 may be used for verification. Further, a face image photographed by a photographing device different from the ophthalmological apparatus 20 may be used for verification.
  • the CPU 22 may identify the subject by acquiring at least one of the name, ID, medical record number, etc. of the subject to be examined.
  • the information on the subject to be examined may be acquired using an identifier or the like, or may be input by the user into the ophthalmology system 1 (for example, the ophthalmology apparatus 20, etc.).
  • the process returns to S21, and the processes of S21 and S24 are repeated.
  • the examinee to be examined is specified (S24: YES)
  • the CPU 22 identifies the eye to be examined and the examination unit based on the eye position information stored in the storage device 13 in association with the identified examinee.
  • the position of at least one of the inspection unit 28 and the face support unit 31 is adjusted in advance so that the relative position of the face support unit 28 becomes an appropriate position (S25). After that, the process moves to S27.
  • the relative position of the eye to be examined and the ophthalmic apparatus 20 is determined in advance based on the eye position information. It is also possible to make adjustments.
  • the facial image 2 for acquiring eye position information is taken during body temperature detection, which is essential in many medical facilities, a separate process is required to acquire eye position information. Not at all.
  • the CPU 22 controls the test unit so that the relative position between the eye to be examined and the test unit 28 is an appropriate position by controlling the operation of the drive unit 26 based on the eye position information.
  • the positions of at least one of the face support unit 28 and the face support unit 31 are automatically adjusted in advance.
  • the CPU 22 may output the eye position information of the subject to be examined as reference information for allowing the user to adjust the relative position of the eye to be examined and the testing unit 28.
  • the relative position of the eye to be examined and the testing unit 28 may be manually adjusted by a user who has grasped the reference information.
  • the reference information may be output by being displayed on the display unit 25 or the like, or may be output by being printed on paper.
  • the CPU 22 determines whether or not the ophthalmological apparatus 20 can acquire eye position information during the actual examination of the subject's eye (for example, whether the ophthalmological apparatus 20 is equipped with a photographing unit 27 or the like for acquiring eye position information during the examination). (S27). If the eye position information at the time of examination cannot be acquired (S27: NO), the process moves to S29. If the eye position information at the time of examination can be acquired (S27: YES), the CPU 22 acquires the eye position information at the time of examination based on the face image of the subject photographed by the photographing unit 27, and the acquired eye position information at the time of examination.
  • the eye position information at the time of examination that can be acquired by the ophthalmological device 20 is the eye position information at the time of the actual examination, so it is more accurate than the eye position information acquired based on the face image 2 taken during body temperature detection. There are many cases. Therefore, by finely adjusting the relative position based on the eye position information at the time of examination, the accuracy of the examination of the subject's eye by the ophthalmological apparatus 20 is further improved.
  • the eye position information at the time of examination may be acquired based on the control position information of the ophthalmological apparatus 20 whose relative position with respect to the eye to be examined has been adjusted to an appropriate position.
  • accurate eye position information at the time of examination when the relative position to the subject's eye is actually adjusted to the appropriate position is replaced as eye position information for the next time and thereafter.
  • the CPU 22 executes an examination of the eye to be examined with the relative position between the eye to be examined and the testing unit 28 adjusted to an appropriate position (S29).
  • the CPU 22 adds the eye position information to be referenced during the next and subsequent examinations of the subject to the face image 2 photographed at the time of body temperature detection.
  • the eye position information acquired based on this information is replaced with the eye position information at the time of examination acquired in S28 or S29 (S30).
  • the CPU 22 transmits the eye position information at the time of examination acquired in S28 or S29 to the subject information acquisition device 10.
  • the CPU 12 of the subject information acquisition device 10 replaces the eye position information regarding the subject to be examined with the eye position information at the time of examination received from the ophthalmological apparatus 20 .
  • the eye position information at the time of examination is often more accurate than the eye position information acquired by the subject information acquisition device 10. Therefore, by replacing the eye position information that will be referred to during subsequent examinations with the eye position information at the time of examination, the relative position between the eye to be examined and the examination unit 28 will be adjusted more appropriately during subsequent examinations. be done.
  • the techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. For example, it is also possible to execute only some of the techniques exemplified in the above embodiments. Further, at least a part of the process shown in FIG. 5 may be executed by a control unit different from the CPU 12 of the subject information acquisition device 10. Similarly, at least a portion of the processing shown in FIG. 6 may be executed by a control unit different from the CPU 22 of the ophthalmological apparatus 20. In S17 of FIG. 5, the eye position information may be stored in a storage device (for example, a storage device of a server, etc.) different from the storage device 13 of the subject information acquisition device 10.
  • a storage device for example, a storage device of a server, etc.
  • the CPU 12 of the subject information acquisition device 10 controls the ophthalmological apparatus 20 and the subject's eye when adjusting the relative position of the ophthalmological apparatus 20 and the subject's eye (that is, at the time of alignment). It is also possible to determine whether there is a high possibility that the face of the user will come into contact with the user, and output the determination result. As an example, the CPU 12 may obtain a determination result as to whether or not there is a high possibility that the ophthalmologic apparatus 20 will come into contact with the face by inputting the facial image into a mathematical model trained by a machine learning algorithm.
  • the mathematical model may be trained in advance so as to output a determination result as to whether the face has a shape that makes it easy to come into contact with the ophthalmological device 20.
  • the CPU 12 also generates information that correlates with the contact between the ophthalmological device 20 and the face based on the face image (for example, the distance between the pupils, the height (distance) from the eyes to the tip of the nose, the depth of the facial carvings, etc.). etc.) and determine whether there is a high possibility of contact based on the acquired information.
  • At least one of the devices in the ophthalmological system 1 adjusts the relative position between the ophthalmological device 20 and the eye to be examined manually rather than automatically. , may be recommended to examiners.
  • the process of detecting body temperature and photographing the face image 2 in S12 of FIG. 5 is an example of a "detection/photographing step.”
  • the process of acquiring eye position information in S16 of FIG. 5 is an example of an "eye position information acquisition step.”
  • the process of outputting eye position information in S17 and S18 in FIG. 5 is an example of an "eye position information output step.”
  • the process of storing the eye position information in association with the subject in S17 of FIG. 5 is an example of a "subject information storage step.”
  • the process of replacing the eye position information with the eye position information at the time of examination in S29 of FIG. 6 is an example of a "replacement step.”
  • the warning process executed in S15 of FIG. 5 is an example of a "warning step.”
  • the process of identifying the subject to be examined in S24 of FIG. 6 is an example of a "subject identifying step.”

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

制御部は、検出・撮影ステップ、眼位置情報取得ステップ、および眼位置情報出力ステップを実行する。検出・撮影ステップでは、制御部は、同一の被検者に対し、体温検出部による体温の検出と、撮影部による顔画像の撮影を共に実行する。眼位置情報取得ステップでは、制御部は、撮影部によって撮影された顔画像に基づいて、被検者の眼の位置に関する情報である眼位置情報を取得する。眼位置情報出力ステップでは、制御部は、少なくともいずれかの眼科装置において、被検者の被検眼と眼科装置の相対位置を適正位置に調整するための情報として、眼位置情報を出力する。

Description

被検者情報取得装置および眼科システム
 本開示は、眼科装置による検査を受ける被検者の情報を取得する被検者情報取得装置、および、被検者情報取得装置を備えた眼科システムに関する。
 多くの眼科装置による被検眼の検査は、眼科装置と被検眼の間の相対位置が適正位置に調整された状態で実行される必要がある。従来の眼科装置では、作業者(例えば、医師または検査技師等)は、被検者の顔が所定位置(例えば顎台等)に配置された状態で、被検眼と眼科装置の相対的な位置関係を自ら把握し、相対位置が適正位置となるように手動で位置関係を調整する必要があった。
 そこで、被検眼と眼科装置の相対位置の調整を容易にするために、種々の技術が提案されている。例えば、近年では、眼科装置に搭載されたカメラで被検者の顔を撮影し、撮影された顔画像に基づいて、被検眼と眼科装置の相対位置を自動で調整する技術も提案されている。また、特許文献1に記載の眼科システムは、被検者に対して行われた過去の検査時のテーブル等の高さを再現することで、位置調整の容易化を図っている。特許文献2に記載の眼検査システムは、同一の被検者に対して複数の眼検査ユニットによる検査を実行する場合に、第1眼検査ユニットによる検査が行われた際の検査軸の高さ情報と、第1眼検査ユニットと第2眼検査ユニットの間のアイレベルの差分に基づいて、第2眼検査ユニットによる検査時の検査軸の高さを調整している。
特開2004-33275号公報 特開2021-137310号公報
 従来の技術では、いずれかの眼科装置で少なくとも1回は、被検眼との間の相対位置が手動または自動で調整される必要がある。従って、眼科装置による検査を初めて実行する被検者に対しても、被検眼と眼科装置の相対位置を予め適正位置に調整可能な技術が望まれる。
 本開示の典型的な目的は、眼科装置による被検眼の検査の効率をさらに向上させることが可能な被検者情報取得装置および眼科システムを提供することである。
 本開示における典型的な実施形態が提供する被検者情報取得装置は、被検者の被検眼を検査する眼科システムにおいて使用される被検者情報取得装置であって、前記眼科システムは、被検眼に対する相対位置が適正位置に調整された状態で前記被検眼を検査する1つまたは複数の眼科装置を備え、前記被検者情報取得装置は、被検者の体温を検出する体温検出部と、被検者の顔を含む画像である顔画像を撮影する撮影部と、制御部と、を備え、前記制御部は、同一の被検者に対し、前記体温検出部による体温の検出と、前記撮影部による顔画像の撮影を共に実行する検出・撮影ステップと、前記撮影部によって撮影された前記顔画像に基づいて、前記被検者の眼の位置に関する情報である眼位置情報を取得する眼位置情報取得ステップと、少なくともいずれかの前記眼科装置において、前記被検者の被検眼と前記眼科装置の相対位置を適正位置に調整するための情報として、前記眼位置情報を出力する眼位置情報出力ステップと、を実行する。
 本開示における典型的な実施形態が提供する眼科システムは、被検者の被検眼を検査する眼科システムであって、被検眼に対する相対位置が適正位置に調整された状態で前記被検眼を検査する1つまたは複数の眼科装置と、被検者の情報を取得する被検者情報取得装置と、制御部と、を備え、前記被検者情報取得装置は、被検者の体温を検出する体温検出部と、被検者の顔を含む画像である顔画像を撮影する撮影部と、を備え、前記制御部は、同一の被検者に対し、前記体温検出部による体温の検出と、前記撮影部による顔画像の撮影を共に実行する検出・撮影ステップと、前記撮影部によって撮影された前記顔画像に基づいて、前記被検者の眼の位置に関する情報である眼位置情報を取得する眼位置情報取得ステップと、を実行し、少なくともいずれかの前記眼科装置は、前記被検者の被検眼と前記眼科装置の相対位置が、前記被検者の前記眼位置情報に基づいて適正位置に調整された状態で、前記被検眼の検査を実行する。
 本開示における被検者情報取得装置および眼科システムによると、眼科装置による被検眼の検査の効率がさらに向上する。
 本開示で例示する被検者情報取得装置は、被検者の被検眼を検査する眼科システムにおいて使用される。眼科システムは、1つまたは複数の眼科装置を備える。眼科装置は、被検眼に対する相対位置が適正位置に調整された状態で被検眼を検査する。被検者情報取得装置は、体温検出部、撮影部、および制御部を備える。体温検出部は、被検者の体温を検出する。撮影部は、被検者の顔を含む画像である顔画像を撮影する。制御部は、検出・撮影ステップ、眼位置情報取得ステップ、および眼位置情報出力ステップを実行する。検出・撮影ステップでは、制御部は、同一の被検者に対し、体温検出部による体温の検出と、撮影部による顔画像の撮影を共に実行する。眼位置情報取得ステップでは、制御部は、撮影部によって撮影された顔画像に基づいて、被検者の眼の位置に関する情報である眼位置情報を取得する。眼位置情報出力ステップでは、制御部は、少なくともいずれかの眼科装置において、被検者の被検眼と眼科装置の相対位置を適正位置に調整するための情報として、眼位置情報を出力する。
 近年、新型コロナウイルスの蔓延により、多くの施設では利用者の体温を立ち入りの際に測定(検出)することが通常となっている。特に、各種医療施設(例えば、病院および健康診断施設等)では、利用者の体温の測定を必須としている場合が多い。本開示に係る被検者情報取得装置および眼科システムによると、被検者に対する体温の検出と顔画像の撮影が共に実行され、且つ、撮影された顔画像に基づいて、被検者の眼位置情報が取得される。眼位置情報は、少なくともいずれかの眼科装置において、被検眼との間の相対位置を調整するための情報として出力される。従って、眼科装置による検査を初めて実行する被検者に対しても、被検眼と眼科装置の相対位置を、眼位置情報に基づいて予め調整することも可能となる。また、眼位置情報を取得するための顔画像は、多くの医療施設で必須となっている体温の検出の際に撮影されるので、眼位置情報を取得するための工程が別途必要となることもない。よって、本開示に係る被検者情報取得装置および眼科システムによると、眼科装置による被検眼の検査の効率がさらに向上する。
 眼科装置には、被検眼の検査(例えば、被検眼の撮影、被検眼の眼特性の測定、被検眼の観察(手術または治療のための観察等を含む)を実行するための種々の装置を採用できる。例えば、被検眼の撮影を行う眼科装置として、OCT装置、レーザ走査型検眼装置(SLO)、眼底カメラ、隅角撮影装置、および、角膜内皮細胞撮影装置(CEM)等の少なくともいずれかを採用できる。被検眼の眼特性の測定を行う眼科装置として、眼屈折力測定装置、角膜形状測定装置、眼軸長測定装置、および、眼圧測定装置等の少なくともいずれかを採用できる。また、被検眼を観察しながら被検眼の組織の手術または治療を行うための光凝固装置、ヤグレーザ手術装置、スリットランプ等を、眼科装置として使用してもよい。
 眼位置情報は、被検者の顎から眼までの高さに関する情報を含んでいてもよい。この場合、被検眼の顎の位置を基準として位置調整を行う眼科装置(例えば、顎台に被検者の顎を載せた状態で被検眼を検査する眼科装置等)において、眼科装置と被検眼の相対的な位置が、眼位置情報に基づいて適切に調整される。また、眼位置情報は、被検者の瞳孔間距離に関する情報を含んでいてもよい。この場合、被検者の左右の眼の各々と眼科装置の間の相対的な位置が、眼位置情報に基づいて適切に調整される。また、眼位置情報は、被検者の眼から額までの高さに関する情報を含んでいてもよい。この場合、被検者の眼から額までの高さに基づいて、眼科装置と被検眼の位置が適切に調整される。
 被検眼と眼科装置の相対位置を、眼位置情報に基づいて適正位置に調整するための具体的な方法は、適宜選択できる。例えば、少なくともいずれかの眼科装置は、被検者の顔と眼科装置の少なくとも一方を移動させることで被検眼と眼科装置に相対位置を調整する駆動部を備えていてもよい。この場合、眼科装置の制御部は、被検者情報取得装置によって出力された眼位置情報に基づいて駆動部の動作を制御することで、被検眼と眼科装置の相対位置を適正位置に調整してもよい。また、眼科システムが備える少なくともいずれかのデバイス(例えば、被検者情報取得装置および眼科装置等の少なくともいずれか)が、検査対象の被検者の眼位置情報を、被検眼と眼科装置の相対位置をユーザに調整させるための参照情報として出力してもよい。被検眼と眼科装置の相対位置は、眼位置情報を把握したユーザによって手動で調整されてもよい。この場合、眼位置情報は、例えば、表示部に表示されることで出力されてもよいし、紙面に印刷されることで出力されてもよい。眼位置情報は、磁気カードまたはRFID等に記録されることで出力されてもよい。
 詳細は後述するが、眼科装置自身が装置と被検眼の相対位置を自動的に調整する機能(所謂オートアライメント機能)を備えている場合も多い。この場合、被検者情報取得装置が取得する眼位置情報によって、相対位置がある程度調整された後に、眼科装置自身がオートアライメント機能によって相対位置をより正確に調整することで、従来よりも効率良く且つ適切に相対位置が調整される。従って、被検者情報取得装置が取得する眼位置情報の精度は、それほど高くなくてもよい場合もある。
 被検者情報取得装置の制御部は、被検者情報取得装置に内蔵されていてもよいし、被検者情報取得装置に接続されたデバイス(例えば、パーソナルコンピュータ、携帯端末、または眼科装置等)に内蔵されていてもよい。また、被検者情報取得装置に内蔵された制御部と、他のデバイス(例えばパーソナルコンピュータ等)に内蔵された制御部が協働して、被検者情報取得装置の制御部として機能してもよい。なお、被検者情報取得装置は、眼科装置の設置場所とは異なる場所(例えば、施設の入り口または受付等)に配置されていることが好ましい。
 撮影部は、撮影対象までの深度情報(撮影対象までの距離の情報と表現してもよい)を取得可能な深度情報取得手段を含んでいてもよい。制御部は、撮影された顔画像と、撮影対象である被検者の顔までの深度情報とに基づいて被検者の眼位置情報を取得してもよい。より正確な眼位置情報を取得するためには、顔画像に加えて深度情報も参照されることが望ましい。撮影部が深度情報取得手段を含む場合には、顔画像と深度情報が共に適切に得られるので、眼位置情報がより適切に取得される。
 なお、基準位置(例えば撮影部等)から撮影対象までの深度情報を取得する方法として、種々の方法を採用できる。例えば、三次元カメラに採用されている公知の方式(例えば、ステレオ方式、ToF方式、構造化照明方式等)を利用して深度情報が取得されてもよい。ステレオ方式とは、複数のカメラによって撮影された画像に基づいて深度情報を取得する方式である。ToF方式とは、光源から照射された光が撮影部に戻るまでの時間に基づいて深度情報を取得する方式である。構造化照明方式とは、照明の光(指標等)を物体に照射し、照射された光の状態に基づいて深度情報を取得する方式である。また、撮影対象である被検者の顔との間の距離を測定する測距センサによって、深度情報が取得されてもよい。また、撮影部は、被検者の顔と共に、大きさ、長さ、または幅等の少なくともいずれかが既知である比較物(例えば、目盛りが付されたメジャー等)を撮影してもよい。この場合、制御部は、顔画像に写る比較物の少なくとも一部の大きさ等に基づいて深度情報を取得してもよい。
 被検者情報取得装置は、被検者の顔を撮影部に対して所定の位置に固定する顔固定部をさらに備えてもよい。制御部は、撮影部と、顔固定部によって固定された被検者の顔の相対的な位置関係に基づいて、被検者の眼位置情報を取得してもよい。この場合、顔画像が撮影される際の、撮影部に対する顔の位置(例えば、撮影部と顔の間の距離等)が既知となる。よって、撮影時の顔の位置が撮影部に対して変化する場合に比べて、より正確に眼位置情報が取得される。また、撮影部に対する顔の位置が既知となることで、撮影された二次元画像に基づいて、おおよその眼位置情報を取得することも可能である。
 制御部は、眼位置情報が取得された被検者に紐付けて、眼位置情報を記憶装置に記憶させる被検者情報記憶ステップをさらに実行してもよい。少なくともいずれかの眼科装置では、検査対象の被検者が特定され、特定された被検者に紐付けて記憶装置に記憶されている眼位置情報に基づいて、被検眼と眼科装置の相対位置が適正位置に調整されてもよい。この場合、複数の被検者に対して眼科装置による検査が行われる状況でも、検査対象の被検者の眼位置情報に基づいて、被検眼と眼科装置の間の相対位置が適切に調整される。
 眼科システムが備える1つまたは複数の眼科装置には、検査時の被検者の眼位置情報を取得することが可能な眼科装置が含まれていてもよい。制御部は、検査時位置情報取得ステップと置き換えステップをさらに実行してもよい。検査時位置情報取得ステップでは、制御部は、眼科装置が検査の際に実際に取得した被検者の眼位置情報である検査時眼位置情報を取得する。置き換えステップでは、制御部は、眼科システムが備える眼科装置において、被検者に対する次回以降の検査時に参照される眼位置情報を、被検者情報記憶ステップにおいて記憶された眼位置情報から、検査時眼位置情報に置き換える。
 眼科装置によって取得される検査時眼位置情報は、検査時の眼位置情報であるため、被検者情報取得装置の撮影部を利用して取得される眼位置情報に比べて正確な場合が多い。従って、次回以降の検査時に参照される眼位置情報を、検者情報取得装置の撮影部を利用して取得された眼位置情報から、検査時眼位置情報に置き換えることで、次回以降の検査(最初の検査と同日に行われる次回以降の検査も含む)の際に、被検眼と眼科装置の間の相対位置がより適切に調整される。
 なお、眼科装置が検査時眼位置情報を取得するための具体的な方法も、適宜選択できる。例えば、眼科装置は、検査時に撮影された被検者の顔の画像に基づいて、検査時眼位置情報を取得してもよい。また、眼科装置は、被検眼に対する相対位置が適正位置に調整された状態の、眼科装置の制御位置情報に基づいて、検査時眼位置情報を取得してもよい。
 制御部は、眼位置情報取得ステップにおいて取得された眼位置情報を示す識別子を出力する識別子出力ステップをさらに実行してもよい。少なくともいずれかの眼科装置では、識別子出力ステップにおいて出力された識別子が示す眼位置情報に基づいて、被検眼と前記眼科装置の相対位置が適正位置に調整されてもよい。この場合、識別子が読み取られることで、被検眼と前記眼科装置の相対位置が適切に調整される。
 なお、眼位置情報を示す識別子の具体的な出力方法は、適宜選択できる。例えば、制御部は、識別子を印刷可能な印刷装置に、眼位置情報を示す識別子を印刷させることで、識別子を出力してもよい。また、制御部は、眼位置情報を示す識別子の画像等を、被検者が使用する携帯端末(例えばスマートフォン等)に送信することで、識別子を出力してもよい。
 制御部は、検出・撮影ステップにおいて検出された被検者の体温が基準値を超えている場合に警告処理を行う警告ステップをさらに実行してもよい。この場合、被検者情報取得装置は、被検者の眼位置情報を取得しつつ、体温が基準値を超えている被検者が発見された場合に警告処理を行うことができる。よって、より円滑に業務が進行し易くなる。
 なお、警告処理の具体的な実施方法は適宜選択できる。例えば、制御部は、音声、光源、および画面への表示等の少なくともいずれかを用いて、被検者の体温が基準値を超えていることを警告してもよい。また、制御部は、施設の従業員が使用するデバイス等に、被検者の体温が基準値を超えていることを示す信号またはメール等を出力してもよい。
 前述した検出・撮影ステップ、および眼位置情報取得ステップ等の各種処理は、眼科システムに含まれる複数のデバイスの制御部のうち、被検者情報取得装置の制御部によって実行されてもよいし、被検者情報取得装置以外の制御部によって実行されてもよい。また、複数のデバイスの制御部が協働して各種処理(ステップ)を実行してもよい。
 眼科システムの制御部は、眼科装置による検査の対象の被検者を特定する被検者特定ステップをさらに実行してもよい。少なくともいずれかの眼科装置は、被検眼と眼科装置の相対位置が、被検者特定ステップにおいて特定された被検者の眼位置情報に基づいて適正位置に調整された状態で、被検眼の検査を実行してもよい。この場合、複数の被検者に対して眼科装置による検査が行われる状況でも、特定された検査対象の被検者の眼位置情報に基づいて、被検眼と眼科装置の間の相対位置が適切に調整される。
 被検者特定ステップにおいて、眼科システムの制御部は、検査対象の被検者の顔画像を、検出・撮影ステップで撮影された顔画像と照合することで、検査対象の被検者を特定してもよい。この場合、被検者情報取得装置によって撮影された被検者の顔画像は、被検者の眼位置情報の取得に用いられるだけでなく、検査対象の被検者の特定にも用いられる。従って、被検者情報取得装置が採用されることで、全体の業務がより効率良く、且つ円滑に進行し易くなる。
 ただし、検査対象の被検者の特定方法を変更することも可能である。例えば、眼科システムの制御部は、検査対象の被検者の氏名、ID、カルテ番号等の少なくともいずれかを取得することで、被検者を特定してもよい。この場合、検査対象の被検者の情報は、識別子等を利用して取得されてもよいし、ユーザによって眼科システムに入力されてもよい。
眼科システム1の概略構成を示すブロック図である。 被検者の情報を取得している状態の被検者情報取得装置10の側面図である。 被検者情報取得装置10によって撮影される顔画像2の一例を示す図である。 被検眼Eの検査を実行している状態の眼科装置20の側面図である。 被検者情報取得装置10(眼科システム1)が実行する被検者情報取得処理のフローチャートの一例である。 眼科装置20(眼科システム1)が実行する検査処理のフローチャートの一例である。
(システム構成)
 以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。まず、図1を参照して、本実施形態における眼科システム1のシステム構成の一例について概略的に説明する。本実施形態の眼科システム1は、被検者情報取得装置10と、1つまたは複数の眼科装置20を備える。被検者情報取得装置10は、有線通信、無線通信、およびネットワーク等の少なくともいずれかを介して眼科装置20と接続されている。
 被検者情報取得装置10は、施設に来訪した被検者の情報を取得する。詳細には、本実施形態の被検者情報取得装置10は、各々の被検者の体温の検出と顔画像の撮影を実行すると共に、撮影した顔画像に基づいて、被検者の眼の位置に関する情報である眼位置情報を取得する。被検者情報取得装置10は、眼科装置20の設置場所とは異なる場所(例えば、施設の入り口または受付等)に設置されることが好ましい。本実施形態の被検者情報取得装置10は、制御ユニット11、操作部14、表示部15、体温検出部16、撮影部17、スピーカ18、および識別子出力部19を備える。さらに、本実施形態の被検者情報取得装置10は、被検者の顔を撮影部17に対して所定の位置に固定する顔固定部9(図2参照)を備える。ただし、顔固定部9は省略することも可能である。また、本実施形態の被検者情報取得装置10は、設置面(床面)に設置された状態で使用される。しかし、被検者情報取得装置10は、ユーザによって把持された状態で使用されるものであってもよい。
 制御ユニット11は、制御を司るコントローラであるCPU12と、プログラムおよびデータ等を記憶することが可能な記憶装置13を備える。本実施形態では、被検者情報取得装置10に内蔵されたCPU12が、被検者情報取得装置10の制御を司る制御部として機能する。また、CPU12は、眼科システム1における各種制御の少なくとも一部を司る制御部としても機能する。ただし、被検者情報取得装置10の制御部、および、眼科システム1の制御部の構成を変更することも可能である。例えば、被検者情報取得装置10に接続されているデバイス(例えば、パーソナルコンピュータ、携帯端末、または眼科装置20等)に内蔵された制御部が、被検者情報取得装置10および眼科システム1の少なくともいずれかの制御部として機能してもよい。また、被検者情報取得装置10に内蔵されたCPU12と、他のデバイスに内蔵されたCPU12が協働して、被検者情報取得装置10および眼科システム1の少なくともいずれかの制御部として機能してもよい。
 操作部14には、ユーザによる各種操作指示が入力される。一例として、本実施形態では、表示部15の表示面に設置されるタッチパネルが操作部14として使用されている。しかし、ボタン、マウス、キーボード、リモートコントローラ等の少なくともいずれかが、操作部14として使用されてもよい。
 表示部15は各種画像を表示する。一例として、本実施形態の表示部15には、撮影部17によって撮影された画像(動画像)がリアルタイムに表示されると共に、被検者情報を取得するための被検者の顔の適切な位置を示す指標(例えば、適切な顔の輪郭位置を示す枠部等)が表示される。被検者情報取得装置10は、被検者の顔の位置が、指標によって示されている適切な位置となった状態で、被検者の体温の検出処理と顔画像の撮影・保存処理を実行する。
 体温検出部16は、被検者の体温を検出する。体温検出部16の具体的な構成は適宜選択できる。例えば、検出対象(本実施形態では被検者の顔)から発せられる赤外線を検出素子に集光し、検出素子によって検出された温度の変化に基づいて検出対象の温度(被検者の体温)を非接触で検出する放射温度計等が、体温検出部16として使用されてもよい。また、体温検出部16と撮影部17が兼用されてもよい。この場合、例えば、検出対象から発せられる赤外線の二次元分布を検出しつつ検出対象を撮影するサーマルカメラ等が、体温検出部16と撮影部17を兼用するデバイスとして採用されてもよい。また、体温検出部16は、被検者に接触することで被検者の体温を検出してもよい。
 撮影部17は、被検者の顔を含む画像である顔画像を撮影する。一例として、本実施形態では、撮影対象(本実施形態では被検者の顔)の二次元の画像情報に加えて、撮影対象までの深度情報も取得することが可能な三次元カメラ(3Dカメラ)が、撮影部17として用いられる。撮影部17によって撮影された顔画像に基づいて眼位置情報が取得される際に、深度情報も併せて参照されることで、より正確に眼位置情報が取得される。なお、三次元カメラには、アクティブ方式のカメラ、および、パッシブ方式のカメラ等のいずれを利用することも可能である。アクティブ方式とは、撮影対象に向けて照射した電波等が撮影対象によって反射されて戻るまでの時間に基づいて、撮影対象までの深度情報を取得する方式である。アクティブ方式のカメラには、例えばToFカメラ等が存在する。パッシブ方式とは、撮影対象に向けて電波等のエネルギーを照射することなく深度情報を取得する方式である。パッシブ方式のカメラには、例えば、ステレオカメラ、およびライトフィールドカメラ等が存在する。なお、詳細は後述するが、三次元カメラを用いる方法とは異なる方法で、基準位置(例えば撮影部の位置等)から撮影対象までの深度情報を取得することも可能である。また、撮影部17に対して所定の位置に被検者の顔を固定した状態で顔画像が撮影される場合でも、顔画像に基づいて取得される眼位置情報の正確性は向上する。さらには、眼科装置20の構成等によっては、眼位置情報に高い正確性が要求されない場合等もある。これらの場合、撮影部17には、三次元カメラの代わりに通常の二次元カメラを用いてもよい。
 本実施形態の表示部15と撮影部17のカメラの配置について詳細に説明する。第1の形態では、カメラ、表示部15、およびカメラが上下方向に沿って順に配置される。この場合、2つのカメラが上下に大きく離れて配置されることで、顎の形状が適切に捉えやすくなり、顎から眼までの高さがより正確に検出され易くなる。また、第2の形態では、4つのカメラが長方形の角部を構成するように配置されると共に、4つのカメラの中心部に表示部15が表示される。この場合、眼位置情報がさらに正確に検出され易くなる。
 スピーカ18は各種音声を発生させる。例えば、本実施形態の被検者情報取得装置10は、被検者の体温の検出と顔画像の撮影が完了した場合に、体温検出と撮影が完了したことを示す完了音をスピーカ18から発生させる。また、被検者情報取得装置10は、体温検出部16によって検出された被検者の体温が基準値を超えている場合に、スピーカ18から警告音を発生させることも可能である。
 識別子出力部19は、顔画像に基づいて取得された眼位置情報を示す識別子(例えばQRコード:登録商標、等)を出力する。一例として、本実施形態の識別子出力部19は、眼位置情報を示す識別子を紙に印刷することで、識別子を出力する。しかし、識別子の出力方法を変更することも可能である。例えば、識別子出力部19は、眼位置情報を示す識別子の画像等を、被検者が使用する携帯端末、または眼科装置20等に送信することで、識別子を出力してもよい。
 眼科装置20は、被検者の被検眼Eを検査する。詳細には、眼科装置20は、例えば、被検眼の撮影、被検眼の眼特性の測定、被検眼の観察(手術または治療のための観察等を含む)等の少なくともいずれかの検査を実行する。例えば、被検眼の撮影を行う眼科装置20として、OCT装置、レーザ走査型検眼装置(SLO)、眼底カメラ、隅角撮影装置、および、角膜内皮細胞撮影装置(CEM)等の少なくともいずれかを採用できる。被検眼の眼特性の測定を行う眼科装置20として、眼屈折力測定装置、角膜形状測定装置、眼軸長測定装置、および、眼圧測定装置等の少なくともいずれかを採用できる。また、被検眼を観察しながら被検眼の組織の手術または治療を行う光凝固装置、ヤグレーザ手術装置、スリットランプ等を、眼科装置20として使用してもよい。
 本実施形態の眼科装置20は、制御ユニット21、操作部24、表示部25、駆動部26、撮影部27、および検査ユニット28を備える。また、少なくともいずれかの眼科装置20には、識別子読取部29が接続されている場合もある。なお、眼科装置20の種類によっては、少なくとも一部の構成(例えば表示部25、および撮影部27等)を省略できる場合もある。
 制御ユニット21は、制御を司るコントローラであるCPU22と、プログラムおよびデータ等を記憶することが可能な記憶装置23を備える。CPU22は、眼科装置20の制御を司る。また、CPU22は、単独で、または他の制御部と協働して、眼科システム1の制御を司る制御部として機能してもよい。
 操作部24には、ユーザによる各種操作指示が入力される。操作部24には、例えば、タッチパネル、ボタン、マウス、キーボード、ジョイスティック、リモートコントローラ等の少なくともいずれを採用できる。表示部25は各種画像を表示する。
 駆動部26は、被検者の被検眼Eと眼科装置20の相対位置を調整する。例えば、駆動部26は、被検者の顔を支持する顔支持ユニット31(図4参照)の位置、および、眼科装置20の検査ユニット28の位置の少なくとも一方を移動させることで、被検眼Eと眼科装置20の間の相対位置を調整する。駆動部26の詳細は、図4を参照して後述する。
 撮影部27は、検査ユニット28に対する位置関係が一定となるように配置されている。撮影部27は、被検者の顔を撮影する。CPU22は、撮影された顔画像に基づいて、被検者の眼の位置に関する情報である眼位置情報(検査時眼位置情報)を取得することが可能である。
 検査ユニット28は、被検眼Eの検査を実行するための構成を備える。例えば、検査ユニット28は、OCT光学系、SLO光学系、眼底カメラ光学系、隅角撮影光学系、角膜内皮細胞撮影光学系、眼軸長測定光学系、眼屈折力測定光学系、角膜形状測定光学系、眼圧測定光学系、手術中用観察光学系、治療中用観察光学系、スリットランプ光学系等の少なくともいずれかを備えていてもよい。
 識別子読取部29は、識別子出力部19によって出力された識別子を読み取ることで、識別子が示す眼位置情報を取得する。識別子読取部29は、眼科装置20に接続されていてもよいし、眼科装置20に内蔵されていてもよい。
(眼位置情報の取得方法)
 図2および図3を参照して、被検者情報取得装置10による被検者情報の取得方法の一例について説明する。図2に示すように、本実施形態の被検者情報取得装置10は顔固定部9を備える。顔固定部9は、被検者の顔を、被検者情報取得装置10の撮影部17に対して所定の位置に固定する。被検者情報取得装置10は、被検者の顔が顔固定部9によって固定された状態で、体温検出部16による被検者の体温の検出と、撮影部17による被検者の顔画像2(図3参照)の撮影を実行する。なお、図3では、顔画像2から得られる眼位置情報の理解を容易にするために、画像に写り込む顔固定部9および背景等は省略している。顔固定部9を用いることで、撮影部17に対する顔の位置(例えば、撮影部17と顔の間の距離DT等)が既知となる。
 次いで、被検者情報取得装置10のCPU12(または、眼科システム1の制御部)は、撮影された顔画像2に基づいて、被検者の眼E(右眼ERおよび左眼EL)の位置に関する情報である眼位置情報を取得する。例えば、CPU12は、顔画像2に対する画像処理を行い、顔画像2に写る顔の眼ER,ELおよび顎等の位置を検出することで、眼位置情報を取得してもよい。一例として、本実施形態では、CPU12は、被検者の顎から眼ER,ELまでの高さEHに関する情報(例えば、高さEHの具体的な数値、または、高さEHを何らかの基準と比較した相対値等)を、眼位置情報として取得する。その結果、眼科装置20では、被検者の眼ER,ELと眼科装置20の間の相対的な高さが、眼位置情報に基づいて適切に調整される。また、CPU12は、被検者の右眼ERと左眼ELの瞳孔間距離PDに関する情報(例えば、PDの具体的な数値、または相対値等)を、眼位置情報として取得する。その結果、眼科装置20では、被検者の右眼ERと左眼ELの各々に対する相対位置が、眼位置情報に基づいて適切に調整される。また、CPU12は、被検者の眼ER,ELから額までの高さEHに関する情報を、眼位置情報として取得してもよい。
 前述したように、本実施形態では、顔固定部9を用いることで、撮影部17に対する撮影時の顔の位置が既知となる。CPU12は、撮影部17と、顔固定部9によって固定された被検者の顔の相対的な位置関係(例えば、撮影部17と顔の間の距離DT等)に基づいて、被検者の眼位置情報を取得する。従って、撮影時の顔の位置が撮影部17に対して変化する場合に比べて、より正確に眼位置情報が取得される。なお、顔固定部9が用いられる場合、撮影部17には、三次元カメラでなく二次元カメラが用いられてもよい。
 また、撮影部17に三次元カメラが用いられる場合には、撮影対象(本実施形態では被検者の顔)の二次元の顔画像に加えて、撮影対象までの深度情報も取得される。この場合、CPU12は、顔画像2と、撮影対象である被検者の顔までの深度情報とに基づいて、被検者の眼位置情報を取得する。従って、深度情報が用いられない場合に比べて、より正確に眼位置情報が取得される。
 なお、基準位置(例えば撮影部17等)から撮影対象までの深度情報を取得する方法は、適宜選択できる。例えば、撮影対象である被検者の顔との間の距離を測定する測距センサによって、深度情報が取得されてもよい。また、被検者情報取得装置10は、深度情報を取得するための指標を被検者の顔に投影する指標投影部をさらに備えていてもよい。この場合、CPU12は、撮影された顔画像2に写る指標の大きさに基づいて深度情報を取得してもよい。また、撮影部17は、被検者の顔と共に、大きさ、長さ、または幅等の少なくともいずれかが既知である比較物(例えば、目盛りが付されたメジャー等)を撮影してもよい。この場合、CPU12は、顔画像2に写る比較物の少なくとも一部の大きさ等に基づいて深度情報を取得してもよい。なお、顔画像2と共に深度情報が得られる場合、顔固定部9を省略することも可能である。本実施形態では、前述したように、公知の三次元カメラが利用されることで、深度情報が取得される。
(眼科装置)
 図4を参照して、眼科システム1で用いられる眼科装置20の一例について説明する。図4は、被検眼Eの検査を実行している状態の眼科装置20の側面図である。眼科装置20は検査ユニット28を備える。前述したように、検査ユニット28は、被検眼Eの検査を実行するための構成を備える。さらに、眼科装置20は、基台30、顔支持ユニット31、筐体32、操作部24、表示部25、駆動部26、および撮影部27を備える。
 基台30は、眼科装置20の全体を支持する。顔支持ユニット31は、基台30に固定されており、検査時の被検者の顔を、眼科装置20の撮影部27および検査ユニット28に対して所定の位置に固定(支持)する。つまり、顔支持ユニット31によって支持される顔の位置は、撮影部27および検査ユニット28に対して既知の位置となる。筐体32は、検査ユニット28等を内蔵すると共に、表示部25等を所定の位置に固定する。また、前述したように、操作部24には、ユーザによる各種操作指示が入力される。表示部25は各種画像を表示する。
 駆動部26は、顔支持ユニット31の位置、および、検査ユニット28(本実施形態では、検査ユニット28を内蔵する筐体32)の位置の少なくとも一方を移動させることで、被検眼Eと眼科装置20の間の相対位置を調整する。本実施形態の駆動部26は、筐体32を、基台30に対して左右方向(X方向)、上下方向(Y方向)、および前後方向(Z方向であり、換言すれば作動距離方向)に移動させることができる。駆動部26は、予め定められた各可動方向に筐体32を移動させるためのアクチュエータを備える。駆動部26は、CPU22(図1参照)からの制御信号に基づいて駆動される。なお、駆動部26は、顔支持ユニット31の位置(例えば上下方向の位置)を移動させることで、被検眼Eと眼科装置20の間の上下方向の相対位置を調整してもよい。
 前述したように、撮影部27は、検査ユニット28に対する位置関係が一定となるように配置されている。撮影部27は、顔支持ユニット31によって支持された被検者の顔を撮影する。CPU22は、撮影された顔画像に基づいて、被検者の顔における眼の位置に関する情報である眼位置情報を取得することが可能である。ここで、眼科装置20によって取得される眼位置情報(検査時眼位置情報)は、実際に検査が行われる際の眼位置情報であるため、被検者情報取得装置10の撮影部17を利用して取得される眼位置情報に比べて正確な場合が多い。また、眼科装置20は、眼科装置は、被検眼に対する相対位置が適正位置に調整された状態の制御位置情報に基づいて、検査時眼位置情報を取得することも可能である。
(被検者情報取得処理)
 図5を参照して、被検者情報取得装置10(または眼科システム1)が実行する被検者情報取得処理について説明する。一例として、本実施形態では、被検者情報取得装置10のCPU12が被検者情報取得処理を実行する。CPU12は、記憶装置13に記憶された被検者情報処理プログラムに従って、図5に例示する被検者情報取得処理を実行する。ただし、前述のように、眼科システム1が備えるデバイスのうち、被検者情報取得装置10とは異なるデバイスの制御部が被検者情報取得処理を実行してもよい。また、複数の制御部が協働して被検者情報取得処理を実行してもよい。
 被検者情報取得装置10は、眼科システム1が設置された施設の入り口または受付等に配置されるのが望ましい。被検者は、施設に来訪すると、被検者情報取得装置10の前方へ移動し、撮影部17によって撮影されて表示部15に表示される動画像を確認しながら、自らの顔を撮影部17の撮影範囲内の適正位置に移動させる。被検者情報取得装置10が顔固定部9を備える場合には、被検者が自らの顔を顔固定部9に固定させることで、被検者の顔の位置が、撮影および体温検出のための適正位置となる。
 CPU12は、撮影部17によって撮影された画像に基づいて、被検者の顔が体温の検出および顔画像の撮影のための適正位置へ移動したか否かを判断する(S11)。顔が適正位置に移動していなければ(S11:NO)、S11の処理が繰り返されて待機状態となる。CPU12は、被検者の顔が適正位置へ移動したと判断すると(S11:YES)、体温検出部16による被検者の体温の検出処理、および、撮影部17による被検者の顔画像2の撮影処理を自動的に開始する(S12)。なお、被検者の体温を検出するタイミングと、被検者の顔画像2を撮影するタイミングは、同時である必要は無い。
 次いで、CPU12は、S12で検出された被検者の体温が基準値を超えているか否かを判断する(S14)。体温が基準値を超えていなければ(S14:NO)、処理はそのままS16へ移行する。体温が基準値を超えている場合(S14:YES)、CPU12は、被検者の体温が高いことを警告するための警告処理を実行する(S15)。その結果、新型コロナウイルスおよびインフルエンザウイルス等の感染症に罹った被検者が、施設内で感染症を拡げてしまう可能性が適切に低下する。なお、警告処理は、例えば音声、光源の点灯、画面への表示等の少なくともいずれかによって行われてもよいし、施設内のデバイスへの信号またはメール等の出力によって行われてもよい。
 次いで、CPU12は、S12で撮影された被検者の顔画像2に基づいて、被検者の眼位置情報を取得する(S16)。顔画像2に基づいて眼位置情報を取得するための具体的な方法は、前述した通りである。本実施形態では、CPU12は、撮影時の深度情報、および、撮影部17と顔の相対的な位置関係の少なくともいずれかを、顔画像2と共に参照することで、より正確な眼位置情報を取得する。
 次いで、CPU12は、S16で取得した眼位置情報を、情報を取得した被検者に紐付けて記憶装置13に記憶させる(S17)。眼位置情報を被検者に紐付けて記憶させるための具体的な方法は、適宜選択できる。一例として、本実施形態では、CPU12は、S12で撮影した被検者の顔画像2に眼位置情報を紐付けて記憶させる。しかし、CPU12は、例えば被検者の名前、またはID等に眼位置情報を紐付けて記憶させてもよい。
 次いで、CPU12は、S16で取得した眼位置情報を示す識別子を出力する(S18)。その後、処理はS11へ戻る。前述したように、本実施形態では、CPU12は、眼位置情報を示す識別子を、識別子出力部19によって紙に印刷することで、識別子を出力する。なお、S17とS18の処理の少なくとも一方を省略することも可能である。
(検査処理)
 図6を参照して、眼科装置20(または眼科システム1)が実行する検査処理について説明する。検査処理では、既に取得されている検査対象の被検者の眼位置情報に基づいて、被検眼と眼科装置20(詳細には検査ユニット28)の間の相対位置が適正位置となるように、検査が実行される前に予め眼科装置20の位置(詳細には、検査ユニット28および顔支持ユニット31の少なくとも一方の位置)が調整される。その後、検査ユニット28による被検眼の検査が実行される。一例として、本実施形態では、眼科装置20のCPU22が検査処理を実行する。CPU22は、記憶装置23に記憶された検査処理プログラムに従って、図6に例示する検査処理を実行する。ただし、眼科装置20のCPU22と、他のデバイス(例えば被検者情報取得装置10のCPU12等)が協働して検査処理を実行してもよい。つまり、図6に例示する検査処理における少なくとも一部の処理が、眼科装置20以外の制御部によって実行されてもよい。
 まず、CPU22は、眼位置情報を示す識別子が識別子読取部29(図1参照)によって読み取られたか否かを判断する(S21)。被検者自身、または検査を補助する補助者等が、被検者の識別子を識別子読取部29に読み取らせると(S21:YES)、CPU22は、読み取られた識別子が示す眼位置情報に基づいて、被検眼と検査ユニット28の相対位置が適正位置となるように、検査ユニット28および顔支持ユニット31の少なくとも一方の位置を予め調整する(S22)。その後、処理はS27へ移行する。
 識別子が読み取られていない場合(S21:NO)、CPU22は、検査対象の被検者が特定されたか否かを判断する(S24)。一例として、本実施形態では、CPU22は、検査対象の被検者の顔画像を取得すると、取得した顔画像を、被検者情報取得装置10が体温検出の際に撮影した顔画像2(図3参照)と照合することで、検査対象の被検者を特定する。前述のように、体温検出の際に撮影された被検者の顔画像2は、被検者の眼位置情報と紐付けられて記憶装置13に記憶されている。以上のように、本実施形態では、体温検出の際に撮影された顔画像2は、被検者の眼位置情報の取得に用いられるだけでなく、検査対象の被検者の特定にも用いられる。従って、被検者情報取得装置10が採用されることで、全体の業務がより効率良く、且つ円滑に進行し易くなる。なお、体温検出の際に撮影した顔画像2と照合するためにS24で取得される顔画像は、いずれの撮影部によって撮影されてもよい。例えば、眼科装置20が撮影部27を備える場合、眼科装置20の撮影部27によって撮影された顔画像が照合に用いられてもよい。また、眼科装置20とは異なる撮影装置によって撮影された顔画像が照合に用いられてもよい。
 ただし、検査対象の被検者の特定方法を変更することも可能である。例えば、CPU22は、検査対象の被検者の氏名、ID、カルテ番号等の少なくともいずれかを取得することで、被検者を特定してもよい。この場合、検査対象の被検者の情報は、識別子等を利用して取得されてもよいし、ユーザによって眼科システム1(例えば眼科装置20等)に入力されてもよい。
 検査対象の被検者が特定されていなければ(S24:NO)、処理はS21へ戻り、S21およびS24の処理が繰り返される。検査対象の被検者が特定されると(S24:YES)、CPU22は、特定された被検者に紐付けて記憶装置13に記憶されている眼位置情報に基づいて、被検眼と検査ユニット28の相対位置が適正位置となるように、検査ユニット28および顔支持ユニット31の少なくとも一方の位置を予め調整する(S25)。その後、処理はS27へ移行する。
 以上のように、本実施形態の眼科システム1によると、眼科装置20による検査を初めて実行する被検者に対しても、被検眼と眼科装置20の相対位置を、眼位置情報に基づいて予め調整することも可能となる。また、眼位置情報を取得するための顔画像2は、多くの医療施設で必須となっている体温の検出の際に撮影されるので、眼位置情報を取得するための工程が別途必要となることもない。
 なお、図6で例示した検査処理では、CPU22は、眼位置情報に基づいて駆動部26の動作を制御することで、被検眼と検査ユニット28の相対位置が適正位置となるように、検査ユニット28および顔支持ユニット31の少なくとも一方の位置を予め自動的に調整する。しかし、眼位置情報に基づいて被検眼と検査ユニット28の相対位置を調整するための具体的な方法を変更することも可能である。例えば、CPU22は、検査対象の被検者の眼位置情報を、被検眼と検査ユニット28の相対位置をユーザに調整させるための参照情報として出力してもよい。被検眼と検査ユニット28の相対位置は、参照情報を把握したユーザによって手動で調整されてもよい。この場合、参照情報は、例えば、表示部25等に表示されることで出力されてもよいし、紙面に印刷されることで出力されてもよい。
 次いで、CPU22は、眼科装置20による実際の被検眼の検査時の眼位置情報を取得可能か否か(例えば、眼科装置20が、検査時眼位置情報を取得するための撮影部27等を備えているか否か)を判断する(S27)。検査時眼位置情報を取得できない場合(S27:NO)、処理はS29へ移行する。検査時眼位置情報を取得可能な場合(S27:YES)、CPU22は、撮影部27によって撮影された被検者の顔画像に基づいて検査時眼位置情報を取得すると共に、取得した検査時眼位置情報に基づいて、被検眼と検査ユニット28の相対位置がさらに適正位置に近づくように微調整を行う(S28)。眼科装置20が取得可能な検査時眼位置情報は、実際の検査時の眼位置情報であるため、体温検出の際に撮影された顔画像2に基づいて取得される眼位置情報に比べて正確な場合が多い。従って、検査時眼位置情報に基づいて相対位置が微調整されることで、眼科装置20による被検眼の検査の精度がさらに向上する。なお、検査時眼位置情報は、被検眼に対する相対位置が適正位置に調整された状態の眼科装置20の制御位置情報に基づいて取得されてもよい。この場合、後述するS30の処理では、被検眼に対する相対位置が実際に適正位置に調整された際の正確な検査時眼位置情報が、次回以降の眼位置情報として置き換えられる。
 次いで、CPU22は、被検眼と検査ユニット28の間の相対位置が適正位置に調整された状態で、被検眼の検査を実行する(S29)。
 次いで、CPU22は、検査時眼位置情報が取得されている場合に、検査対象の被検者に対する次回以降の検査時に参照される眼位置情報を、体温検出の際に撮影された顔画像2に基づいて取得された眼位置情報から、S28またはS29で取得された検査時眼位置情報に置き換える(S30)。詳細には、本実施形態では、CPU22は、S28またはS29で取得された検査時眼位置情報を被検者情報取得装置10に送信する。被検者情報取得装置10のCPU12は、検査対象の被検者についての眼位置情報を、眼科装置20から受信した検査時眼位置情報に置き換える。前述のように、検査時眼位置情報は、被検者情報取得装置10によって取得された眼位置情報よりも正確な場合が多い。従って、次回以降の検査時に参照される眼位置情報を、検査時眼位置情報に置き換えることで、次回以降の検査の際に、被検眼と検査ユニット28の間の相対位置が、より適切に調整される。
 上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。例えば、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。また、図5に示す処理の少なくとも一部を、被検者情報取得装置10のCPU12とは異なる制御部が実行してもよい。同様に、図6に示す処理の少なくとも一部を、眼科装置20のCPU22とは異なる制御部が実行してもよい。図5のS17において、眼位置情報は、被検者情報取得装置10の記憶装置13とは異なる記憶装置(例えば、サーバの記憶装置等)に記憶されてもよい。
 また、被検者情報取得装置10のCPU12は、被検者の顔を撮影した際に、眼科装置20と被検眼の相対位置の調整時(つまり、アライメント時)に眼科装置20と被検者の顔が接触する可能性が高いか否かを判定し、判定結果を出力してもよい。一例として、CPU12は、機械学習アルゴリズムによって訓練された数学モデルに顔画像を入力することで、眼科装置20と顔が接触する可能性が高いか否かの判定結果を取得してもよい。この場合、数学モデルは、眼科装置20と接触し易い形状の顔であるか否かの判定結果等を出力するように、予め訓練されていてもよい。また、CPU12は、顔画像等に基づいて、眼科装置20と顔の接触に相関がある情報(例えば、瞳孔間距離、眼から鼻の先端までの高さ(距離)、顔の彫りの深さ等)を取得し、取得した情報に基づいて接触の可能性が高いか否かを判定してもよい。また、接触の可能性が高いと判定された場合、眼科システム1内の少なくともいずれかの装置は、眼科装置20と被検眼の間の相対位置の調整を、自動でなく手動で実行することを、検者に推奨してもよい。
 図5のS12で体温の検出と顔画像2の撮影を実行する処理は、「検出・撮影ステップ」の一例である。図5のS16で眼位置情報を取得する処理は、「眼位置情報取得ステップ」の一例である。図5のS17,S18で眼位置情報を出力する処理は、「眼位置情報出力ステップ」の一例である。図5のS17で眼位置情報を被検者に紐付けて記憶させる処理は、「被検者情報記憶ステップ」の一例である。図6のS29で眼位置情報を検査時眼位置情報に置き換える処理は、「置き換えステップ」の一例である。図5のS18で眼位置情報を示す識別子を出力する処理は、「識別子出力ステップ」の一例である。図5のS15で実行される警告処理は、「警告ステップ」の一例である。図6のS24で検査対象の被検者を特定する処理は、「被検者特定ステップ」の一例である。

Claims (10)

  1.  被検者の被検眼を検査する眼科システムにおいて使用される被検者情報取得装置であって、
     前記眼科システムは、
     被検眼に対する相対位置が適正位置に調整された状態で前記被検眼を検査する1つまたは複数の眼科装置を備え、
     前記被検者情報取得装置は、
     被検者の体温を検出する体温検出部と、
     被検者の顔を含む画像である顔画像を撮影する撮影部と、
     制御部と、
     を備え、
     前記制御部は、
     同一の被検者に対し、前記体温検出部による体温の検出と、前記撮影部による顔画像の撮影を共に実行する検出・撮影ステップと、
     前記撮影部によって撮影された前記顔画像に基づいて、前記被検者の眼の位置に関する情報である眼位置情報を取得する眼位置情報取得ステップと、
     少なくともいずれかの前記眼科装置において、前記被検者の被検眼と前記眼科装置の相対位置を適正位置に調整するための情報として、前記眼位置情報を出力する眼位置情報出力ステップと、
     を実行することを特徴とする被検者情報取得装置。
  2.  請求項1に記載の被検者情報取得装置であって、
     前記撮影部は、撮影対象までの深度情報を取得可能な深度情報取得手段を含み、
     前記制御部は、前記顔画像と、撮影対象である被検者の顔までの前記深度情報とに基づいて、前記被検者の前記眼位置情報を取得することを特徴とする被検者情報取得装置。
  3.  請求項1に記載の被検者情報取得装置であって、
     被検者の顔を、前記撮影部に対して所定の位置に固定する顔固定部をさらに備え、
     前記顔固定部によって固定された状態の前記被検者の顔を前記撮影部によって撮影し、
     前記制御部は、前記撮影部と、前記顔固定部によって固定された前記被検者の顔の相対的な位置関係に基づいて、前記被検者の前記眼位置情報を取得することを特徴とする被検者情報取得装置。
  4.  請求項1に記載の被検者情報取得装置であって、
     前記制御部は、
     前記眼位置情報が取得された被検者に紐付けて、前記眼位置情報を記憶装置に記憶させる被検者情報記憶ステップをさらに実行し、
     少なくともいずれかの前記眼科装置では、検査対象の被検者が特定され、特定された前記被検者に紐付けて前記記憶装置に記憶されている前記眼位置情報に基づいて、被検眼と前記眼科装置の相対位置が適正位置に調整されることを特徴とする被検者情報取得装置。
  5.  請求項4に記載の被検者情報取得装置であって、
     前記眼科システムが備える前記眼科装置には、検査時の被検者の前記眼位置情報を取得することが可能な前記眼科装置が含まれており、
     前記制御部は、
     前記眼科装置が検査の際に実際に取得した被検者の前記眼位置情報である検査時眼位置情報を取得する検査時眼位置情報取得ステップと、
     前記眼科システムが備える前記眼科装置において、前記被検者に対する次回以降の検査時に参照される前記眼位置情報を、前記被検者情報記憶ステップにおいて記憶された前記眼位置情報から、前記検査時眼位置情報に置き換える置き換えステップと、
     をさらに実行することを特徴とする被検者情報取得装置。
  6.  請求項1に記載の被検者情報取得装置であって、
     前記制御部は、
     前記眼位置情報取得ステップにおいて取得された前記眼位置情報を示す識別子を出力する識別子出力ステップをさらに実行し、
     少なくともいずれかの前記眼科装置では、前記識別子出力ステップにおいて出力された識別子が示す前記眼位置情報に基づいて、被検眼と前記眼科装置の相対位置が適正位置に調整されることを特徴とする被検者情報取得装置。
  7.  請求項1に記載の被検者情報取得装置であって、
     前記制御部は、
     前記検出・撮影ステップにおいて検出された前記被検者の体温が基準値を超えている場合に警告処理を行う警告ステップをさらに実行することを特徴とする被検者情報取得装置。
  8.  被検者の被検眼を検査する眼科システムであって、
     被検眼に対する相対位置が適正位置に調整された状態で前記被検眼を検査する1つまたは複数の眼科装置と、
     被検者の情報を取得する被検者情報取得装置と、
     制御部と、
     を備え、
     前記被検者情報取得装置は、
     被検者の体温を検出する体温検出部と、
     被検者の顔を含む画像である顔画像を撮影する撮影部と、
     を備え、
     前記制御部は、
     同一の被検者に対し、前記体温検出部による体温の検出と、前記撮影部による顔画像の撮影を共に実行する検出・撮影ステップと、
     前記撮影部によって撮影された前記顔画像に基づいて、前記被検者の眼の位置に関する情報である眼位置情報を取得する眼位置情報取得ステップと、
     を実行し、
     少なくともいずれかの前記眼科装置は、前記被検者の被検眼と前記眼科装置の相対位置が、前記被検者の前記眼位置情報に基づいて適正位置に調整された状態で、前記被検眼の検査を実行することを特徴とする眼科システム。
  9.  請求項8に記載の眼科システムであって、
     前記制御部は、
     前記眼科装置による検査の対象の被検者を特定する被検者特定ステップをさらに実行し、
     少なくともいずれかの前記眼科装置は、被検眼と前記眼科装置の相対位置が、前記被検者特定ステップにおいて特定された前記被検者の前記眼位置情報に基づいて適正位置に調整された状態で、前記被検眼の検査を実行することを特徴とする眼科システム。
  10.  請求項9に記載の眼科システムであって、
     前記被検者特定ステップにおいて、前記制御部は、検査対象の被検者の顔画像を、前記検出・撮影ステップで撮影された前記顔画像と照合することで、検査対象の被検者を特定することを特徴とする眼科システム。
PCT/JP2023/023744 2022-07-05 2023-06-27 被検者情報取得装置および眼科システム WO2024009841A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-108375 2022-07-05
JP2022108375 2022-07-05

Publications (1)

Publication Number Publication Date
WO2024009841A1 true WO2024009841A1 (ja) 2024-01-11

Family

ID=89453377

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/023744 WO2024009841A1 (ja) 2022-07-05 2023-06-27 被検者情報取得装置および眼科システム

Country Status (1)

Country Link
WO (1) WO2024009841A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068215A (ja) * 2016-05-09 2022-05-09 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
WO2022138102A1 (ja) * 2020-12-25 2022-06-30 株式会社ニデック 眼科装置および眼科装置の制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068215A (ja) * 2016-05-09 2022-05-09 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
WO2022138102A1 (ja) * 2020-12-25 2022-06-30 株式会社ニデック 眼科装置および眼科装置の制御プログラム

Similar Documents

Publication Publication Date Title
US5870167A (en) Apparatus and method for imaging anterior structures of the eye
US9408531B2 (en) Ophthalmologic apparatus
JP5820154B2 (ja) 眼科装置、眼科システム及び記憶媒体
JP4290278B2 (ja) 眼科装置
JP7466607B2 (ja) スリットランプ顕微鏡
JP7321678B2 (ja) スリットランプ顕微鏡及び眼科システム
JP6641730B2 (ja) 眼科装置、および眼科装置用プログラム
JP3935834B2 (ja) 眼科装置
JP7029992B2 (ja) 眼科装置の操作端末、眼科検査の方法およびプログラム
JP2009000354A (ja) 眼科測定装置
JP6723843B2 (ja) 眼科装置
WO2024009841A1 (ja) 被検者情報取得装置および眼科システム
JP7559750B2 (ja) 検眼装置及び検眼プログラム
JP2020151551A (ja) 眼科装置
US12029480B2 (en) Vision screening systems and methods
JP7430082B2 (ja) 眼科装置及びその作動方法
JP2005013472A (ja) 眼科システム
JP2012217710A (ja) 眼科検査装置における顎台と光学ヘッドの設定制御システム
JP7400204B2 (ja) 検眼装置、検眼プログラム、及び検眼システム
US20220061661A1 (en) Ophthalmologic examination system and ophthalmologic apparatus
JP6480748B2 (ja) 眼科装置
JP7432328B2 (ja) 医療システム
JP2018166634A (ja) 眼科装置
JP6928453B2 (ja) 眼科装置
JP2022105110A (ja) 眼科装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23835374

Country of ref document: EP

Kind code of ref document: A1