WO2019176231A1 - 眼科システム、眼科情報処理装置、プログラム、及び記録媒体 - Google Patents

眼科システム、眼科情報処理装置、プログラム、及び記録媒体 Download PDF

Info

Publication number
WO2019176231A1
WO2019176231A1 PCT/JP2018/047855 JP2018047855W WO2019176231A1 WO 2019176231 A1 WO2019176231 A1 WO 2019176231A1 JP 2018047855 W JP2018047855 W JP 2018047855W WO 2019176231 A1 WO2019176231 A1 WO 2019176231A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
report
control unit
rendering
Prior art date
Application number
PCT/JP2018/047855
Other languages
English (en)
French (fr)
Inventor
福間 康文
央 塚田
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to US16/975,399 priority Critical patent/US11950849B2/en
Publication of WO2019176231A1 publication Critical patent/WO2019176231A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/135Slit-lamp microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present invention relates to an ophthalmologic system, an ophthalmologic information processing apparatus, a program, and a recording medium.
  • Diagnostic imaging occupies an important position in the ophthalmology field.
  • various ophthalmologic photographing apparatuses are used.
  • the ophthalmologic photographing apparatus include a slit lamp microscope, a fundus camera, a scanning laser ophthalmoscope (SLO), and an optical coherence tomography (OCT).
  • SLO scanning laser ophthalmoscope
  • OCT optical coherence tomography
  • Various ophthalmologic photographing apparatuses such as a refractometer, a keratometer, a tonometer, a specular microscope, a wavefront analyzer, and a microperimeter are also equipped with a function of photographing the anterior segment and the fundus.
  • the slit lamp microscope is an ophthalmologic apparatus for illuminating a subject's eye with slit light and observing and photographing the illuminated section from the side.
  • a slit lamp microscope is generally used for diagnosis of the anterior segment such as the cornea and the crystalline lens. For example, the doctor determines the presence or absence of an abnormality by observing the entire diagnostic region while moving the illumination field or the focus position by the slit light.
  • a slit lamp microscope may be used in the prescription of the vision correction device such as confirmation of the fitting state of the contact lens.
  • Telemedicine is an act of performing medical treatment on a patient in a remote place using information technology such as the Internet.
  • Patent Documents 3 and 4 disclose a technique for operating a medical device from a remote place
  • Patent Document 4 discloses a technique for operating a slit lamp microscope from a remote place.
  • An object of the present invention is to provide an ophthalmic telemedicine technique that can effectively use a slit lamp microscope.
  • the first aspect of the exemplary embodiment includes a front image acquisition unit that acquires a front image by imaging the anterior segment of an eye to be examined, and collects a plurality of images by imaging the anterior segment with slit light.
  • a slit lamp microscope including an image collecting unit, a three-dimensional image forming unit that forms a three-dimensional image based on the plurality of images, a rendering unit that renders the three-dimensional image to form a rendered image, and the front surface
  • a display control unit for displaying an image and the rendered image on a display unit; a report creation unit including a user interface for creating a report regarding information displayed by the display control unit; and a report output unit for outputting the report And an ophthalmic system.
  • a second aspect of the exemplary embodiment is the ophthalmic system according to the first aspect, wherein the server is connected to the slit lamp microscope via a communication path, and is connected to the server via the communication path.
  • Information processing apparatus The server transmits the storage unit storing the 3D image and the front image associated with preset subject identification information, and transmits at least the 3D image and the front image to the information processing apparatus.
  • Communication unit The information processing apparatus includes a communication unit that receives at least the three-dimensional image and the front image transmitted from the server, the rendering unit, the display control unit, and the report creation unit.
  • the communication unit of the information processing apparatus transmits the report created by the report creation unit to the server.
  • the communication unit of the server receives the report transmitted from the information processing apparatus, and transmits at least a part of the report to a facility where the slit lamp microscope is installed.
  • the report output unit is disposed in the facility where the slit lamp microscope is installed.
  • a third aspect of the exemplary embodiment is the ophthalmic system according to the first or second aspect, wherein the rendering unit specifies at least one of a corneal surface area and a corneal back area in the three-dimensional image. .
  • a fourth aspect of the exemplary embodiment is the ophthalmic system according to the third aspect, in which the rendering unit specifies at least the corneal surface region and analyzes the corneal surface region to obtain a corneal curvature radius.
  • a first analysis unit is further included, and the report creation unit creates a report including at least one of the corneal curvature radius and information based thereon.
  • a fifth aspect of the exemplary embodiment is the ophthalmic system according to the third aspect, in which the rendering unit identifies at least the corneal surface region, analyzes the corneal surface region, and calculates a corneal curvature radius distribution. And a second analysis unit for obtaining a deviation distribution representing a deviation of the corneal curvature radius distribution from a preset standard distribution, and the report creating unit includes at least one of the deviation distribution and information based thereon. Create a report.
  • a sixth aspect of the exemplary embodiment is the ophthalmic system according to the fifth aspect, in which the display control unit displays the deviation distribution on the display means.
  • a seventh aspect of the exemplary embodiment is the ophthalmic system according to any one of the first to sixth aspects, further comprising a registration unit that performs registration between the front image and the three-dimensional image.
  • the user interface is used for designating a region of interest in the front image, and the rendering unit identifies a partial region of the three-dimensional image corresponding to the region of interest based on the registration result.
  • a rendering image corresponding to the partial area is formed.
  • An eighth aspect of the exemplary embodiment is the ophthalmic system according to the seventh aspect, wherein the display control unit causes the display unit to display the rendered image and the front image corresponding to the partial region, In addition, an image representing an area corresponding to the rendering image is displayed on the front image.
  • a ninth aspect of the exemplary embodiment is the ophthalmic system according to any one of the first to eighth aspects, wherein the rendering unit forms a stereoscopic image from the three-dimensional image, and the display control unit is The stereoscopic image is displayed on the display means, and the user interface is used to operate the stereoscopic image displayed on the display means.
  • a tenth aspect of an exemplary embodiment is the ophthalmic system according to any one of the first to ninth aspects, wherein the rendering unit specifies a lens region in the three-dimensional image, and the lens region is A third analysis unit that analyzes and obtains a turbidity distribution is further included, and the report creation unit creates a report including at least one of the turbidity distribution and information based thereon.
  • the eleventh aspect of the exemplary embodiment is the ophthalmic system according to the tenth aspect, in which the display control unit displays the turbidity distribution on the display means.
  • a twelfth aspect of the exemplary embodiment is the ophthalmic system according to any one of the first to eleventh aspects, wherein the image collection unit includes an illumination system that illuminates the eye to be examined with slit light, and the subject. An imaging system that guides the return light of the slit light from the optometry to the first imaging device; and the illumination system and a moving unit that moves the imaging system.
  • the three-dimensional image forming unit includes the illumination system and the imaging A three-dimensional image is formed based on a plurality of cross-sectional images acquired by the first imaging device while moving the system.
  • a thirteenth aspect of the exemplary embodiment is the ophthalmic system according to the twelfth aspect, in which the image collection unit is configured to change at least one of the focus position of the illumination system and the focus position of the imaging system.
  • a three-dimensional image forming unit that moves at least one of the illumination system and the imaging system and changes at least one of the focus position of the illumination system and the focus position of the imaging system;
  • a three-dimensional image is formed based on the plurality of cross-sectional images acquired by the first imaging device.
  • a fourteenth aspect of the exemplary embodiment is the ophthalmic system according to the thirteenth aspect, further including an operation mode designating unit for designating an operation mode of the slit lamp microscope, wherein the slit lamp microscope is controlled. And when the three-dimensional imaging mode is designated by the operation mode designation unit, the control unit controls the illumination system, the imaging system, the moving unit, and the focus position changing unit in association with each other. Thereby, the plurality of cross-sectional images are acquired by the first imaging device.
  • a fifteenth aspect of the exemplary embodiment is the ophthalmic system according to any of the twelfth to fourteenth aspects, wherein the front image acquisition unit includes a second imaging device different from the first imaging device.
  • a sixteenth aspect of an exemplary embodiment is the ophthalmic system according to the fifteenth aspect, wherein the second imaging apparatus is configured to perform the front imaging in parallel with the collection of the plurality of cross-sectional images by the first imaging apparatus. Take a video of the eye.
  • a seventeenth aspect of the exemplary embodiment includes a communication unit that receives a three-dimensional image and a front image acquired by photographing the anterior eye part of an eye to be examined with a slit lamp microscope via a communication path, and the three-dimensional image.
  • the ophthalmologic information processing apparatus is characterized in that the communication unit transmits the report.
  • the nineteenth aspect of the exemplary embodiment is a computer-readable non-transitory recording medium that records the program according to the eighteenth aspect.
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment.
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment.
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment.
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment. It is the schematic for demonstrating an example of operation
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment.
  • 1 is a schematic diagram illustrating an example of a configuration of an ophthalmic system according to an exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment. It is a flowchart showing an example of the usage pattern of the ophthalmic system which concerns on exemplary embodiment.
  • the ophthalmic system according to the embodiment is used for telemedicine using, for example, an ophthalmologic photographing apparatus installed in various facilities or a portable ophthalmic photographing apparatus.
  • an ophthalmologic photographing apparatus installed in various facilities or a portable ophthalmic photographing apparatus.
  • at least a person who interprets a medical image acquired by an ophthalmologic photographing apparatus is performed in a remote place away from a facility where the ophthalmic photographing apparatus is installed.
  • This radiogram reader is typically a specialist such as a doctor or optometricist.
  • the image interpreter creates a report on the eye to be examined by performing the image interpretation.
  • a person (assistant) who assists the examination in a facility where the ophthalmologic photographing apparatus is installed may be involved.
  • Examples of facilities where ophthalmologic imaging devices are installed include eyeglass stores, medical institutions, health examination venues, examination venues, patient homes, welfare facilities, public facilities, and examination cars.
  • the ophthalmologic photographing apparatus may be an arbitrary apparatus used for photographing the eye to be examined, and has at least a function as a slit lamp microscope. Any of a plurality of ophthalmologic imaging apparatuses included in the ophthalmic system may include an imaging function different from the slit lamp microscope (for example, an ophthalmic modality such as a fundus camera, SLO, or OCT). Furthermore, the ophthalmologic photographing apparatus may include an application for analyzing measurement data and photographed images.
  • the ophthalmologic system of the embodiment may further include an ophthalmologic measurement device for measuring characteristics of the eye to be examined.
  • ophthalmic measurement devices include eyesight testing devices (target presentation devices, phoropters, etc.), eye refraction testing devices (refractometers, keratometers, etc.), tonometers, specular microscopes, wavefront analyzers, perimeters, microperimeters, etc. There is.
  • the ophthalmic system 1000 illustrated in FIG. 1 includes a communication path (communication line) that connects each of N facilities (first facility to Nth facility) where ophthalmic imaging is performed, the management server 4000, and the remote terminal 5000m. It is constructed using 1100.
  • Ophthalmic imaging apparatus 2000-i n the present embodiment is provided with both the function as a "computer” as a function of a "photographing apparatus” for implementing the imaging of the eye, to communicate with various data processing and an external apparatus Yes.
  • the imaging device and the computer can be provided separately.
  • the imaging device and the computer may be configured to be able to communicate with each other.
  • the number of photographing devices and the number of computers are arbitrary, and for example, a single computer and a plurality of photographing devices can be provided.
  • an information processing device used by an assistant or a subject is installed in each facility (nth facility).
  • the terminal 3000-n is a computer used in the facility, and may be, for example, a mobile terminal such as a tablet terminal or a smartphone, a server installed in the facility, or the like. Further, the terminal 3000-n may include a wearable device such as a wireless earphone.
  • the terminal 3000-n may be a computer that can use the function in the facility, and may be a computer (a cloud server or the like) installed outside the facility, for example.
  • a network Institutional LAN, etc.
  • Internet wide area network
  • Ophthalmic imaging apparatus 2000-i n may have a function as a communication device such as a server. In this case, it is possible and ophthalmologic photographing apparatus 2000-i n and the terminal 3000-n is configured to communicate directly. Thus, it is possible to perform via an ophthalmologic imaging apparatus 2000-i n the communication between the management server 4000 and the terminal 3000-n, the function of communicating with the management server 4000 and the terminal 3000-n There is no need to provide it.
  • the management server 4000 is installed in a facility different from any of the first to Nth facilities, for example, in the management center.
  • the management server 4000 for example, the function of relaying communication between the ophthalmologic photographing apparatus 2000-i n and the remote terminal 5000 m, the function of recording the contents of the communication, which is acquired by the ophthalmic photographing apparatus 2000-i n A function of storing data and information, and a function of storing data and information acquired by the remote terminal 5000m.
  • the management server 4000 may have a data processing function.
  • the management server 4000, the three-dimensional image forming unit for performing a process of forming a 3-dimensional image from a plurality of cross-sectional images obtained by the ophthalmic photographing apparatus 2000-i n (slit lamp microscope) (processor, computer program Etc.) may be included.
  • Remote terminal 5000m includes a computer usable image interpretation and reporting of the eye of the image obtained by the ophthalmic photographing apparatus 2000-i n.
  • the “processor” is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, SPLD (SimpleDLD). It means a circuit such as Complex Programmable Logic Device (FPGA) or Field Programmable Gate Array (FPGA).
  • the processor can realize the functions according to the embodiment by reading and executing a program or data stored in a storage circuit or a storage device.
  • ophthalmic imaging apparatus 2000-i n ⁇ Configuration of ophthalmic imaging device> Description will be given of a configuration of an ophthalmic imaging apparatus 2000-i n. As described above, the ophthalmologic photographing apparatus 2000-i n has a function as a slit lamp microscope. In the present example, unless otherwise specified, ophthalmic imaging apparatus 2000-i n is the slit lamp microscope.
  • the direction may be expressed as follows.
  • the optical system of the slit lamp microscope is arranged in front of the eye to be examined (neutral position)
  • the direction from the lens (objective lens) located closest to the eye to be examined in the optical system to the eye to be examined or Depth direction, depth direction, Z direction
  • the opposite direction is the rear direction ( ⁇ Z direction).
  • a horizontal direction orthogonal to the Z direction is defined as a left-right direction (or a lateral direction, ⁇ X direction).
  • the direction orthogonal to both the Z direction and the X direction is defined as the vertical direction (or the vertical direction and the ⁇ Y direction).
  • the XYZ coordinate system is defined as a right-handed system (or a left-handed system), for example.
  • the radial direction that is the direction along the optical axis (observation photographing optical axis) of the observation photographing system is defined as the r 1 direction, and the rotation direction is set. and ⁇ 1 direction.
  • the radial direction which is the direction along the optical axis (illumination optical axis) of the illumination system, is defined as the r 2 direction, and the rotation direction is defined as the ⁇ 2 direction.
  • the positive direction of the radial direction is the direction from the objective lens toward the eye to be examined, and the positive direction of the rotational direction is the counterclockwise direction when viewed from above.
  • the rotation direction is defined with reference to the Z direction (that is, the Z direction is defined as a rotation angle of 0 degree).
  • the r 1 direction coincides with the Z direction.
  • the r 2 direction coincides with the Z direction.
  • At least one of the illumination system and the observation photographing system may be rotatable in the vertical direction.
  • the radial direction and the rotational direction are defined similarly.
  • Fig. 2 shows the external configuration of an exemplary slit lamp microscope.
  • a computer 100 is connected to the slit lamp microscope 1.
  • the computer 100 performs various control processes and arithmetic processes. Instead of providing the computer 100 separately from the microscope main body (housing for storing an optical system or the like), a configuration in which the same computer is mounted on the microscope main body can be applied. At least a part of the computer 100 and at least a part of the terminal 3000-n may be common.
  • the slit lamp microscope 1 is placed on the table 2.
  • the base 4 is configured to be movable three-dimensionally via the moving mechanism unit 3.
  • the base 4 is moved by tilting the operation handle 5.
  • the moving mechanism unit 3 includes an actuator.
  • a support portion 15 that supports the observation photographing system 6 and the illumination system 8 is provided on the upper surface of the base 4.
  • a support arm 16 that supports the observation imaging system 6 is attached to the support unit 15 so as to be rotatable in the left-right direction.
  • a support arm 17 that supports the illumination system 8 is attached to an upper portion of the support arm 16 so as to be rotatable in the left-right direction.
  • the support arms 16 and 17 are rotatable independently of each other and coaxially with each other.
  • the observation imaging system 6 is moved by rotating the support arm 16.
  • the illumination system 8 is moved by rotating the support arm 17.
  • Each of the support arms 16 and 17 is rotated by an electric mechanism.
  • the moving mechanism unit 3 is provided with a mechanism for rotating the support arm 16 and a mechanism for rotating the support arm 17.
  • the observation imaging system 6 can also be moved by manually rotating the support arm 16.
  • the illumination system 8 can be moved by manually rotating the support arm 17.
  • the illumination system 8 irradiates the eye E with illumination light.
  • the illumination system 8 can be rotated in the left-right direction.
  • the projection direction of the illumination light with respect to the eye E is changed.
  • the observation imaging system 6 has a pair of left and right optical systems that guide the return light of the illumination light projected on the eye E.
  • This optical system is housed in the barrel main body 9.
  • the end of the lens barrel body 9 is an eyepiece 9a.
  • the examiner observes the eye E by looking into the eyepiece 9a.
  • the lens barrel body 9 can be rotated in the left-right direction by rotating the support arm 16.
  • the observation photographing system 6 may be configured to be able to rotate in the vertical direction. That is, you may be comprised so that the elevation angle and depression angle of the observation imaging
  • the direction in which the eye E is imaged can be changed by such a swing operation of the observation imaging system 6.
  • a chin rest 10 is disposed at a position facing the lens barrel body 9.
  • the chin rest 10 is provided with a chin rest 10a and a forehead rest 10b for stably arranging the face of the subject.
  • a magnification operation knob 11 for changing the magnification is disposed on the side surface of the lens barrel body 9. Further, an imaging device 13 for photographing the eye E is connected to the barrel main body 9.
  • the imaging device 13 includes an imaging element.
  • the imaging element is a photoelectric conversion element that detects light and outputs an image signal (electric signal).
  • the image signal is input to the computer 100.
  • a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used as the imaging element.
  • a mirror 12 that reflects the illumination light beam output from the illumination system 8 toward the eye E is disposed below the illumination system 8.
  • an anterior eye camera 70 for photographing the anterior eye portion of the eye E from the front is provided in the vicinity of the mirror 12 (for example, the lower position or the upper position of the mirror 12). (See FIGS. 3 and 4).
  • the anterior eye camera 70 is fixedly arranged or can be moved independently of the movement of the observation photographing system 6 and the illumination system 8.
  • the anterior eye camera 70 is, for example, a video camera capable of shooting a moving image. Any number of one or more anterior segment cameras 70 may be provided.
  • An anterior segment illumination light source for projecting illumination light for photographing with the anterior segment camera 70 to the anterior segment may be provided.
  • the anterior segment illumination light source may be, for example, an infrared light source or a visible light source.
  • the anterior segment illumination light source is disposed, for example, in the vicinity of the anterior segment camera 70 (for example, the lower position, the upper position, or the lateral position of the anterior segment camera 70). Any number of one or more anterior segment illumination light sources may be provided.
  • FIG. 1 A configuration example of the optical system of the slit lamp microscope 1 is shown in FIG. As described above, the slit lamp microscope 1 includes the observation photographing system 6 and the illumination system 8.
  • the observation photographing system 6 includes a pair of left and right optical systems.
  • the left and right optical systems have substantially the same configuration.
  • the examiner can observe the eye E with binoculars using the left and right optical systems.
  • FIG. 3 shows only one of the left and right optical systems of the observation photographing system 6.
  • the observation photographing system 6 may include only one of the left and right optical systems.
  • a symbol O1 indicates an optical axis of the observation photographing system 6.
  • Each of the left and right optical systems of the observation photographing system 6 includes an objective lens 31, a variable power optical system 32, a beam splitter 34, an imaging lens 35, a prism 36, and an eyepiece lens 37.
  • the beam splitter 34 is provided in one or both of the left and right optical systems.
  • the eyepiece lens 37 is provided in the eyepiece 9a.
  • a symbol P indicates an imaging position of light guided to the eyepiece lens 37.
  • Symbol Ec indicates the cornea of the eye E to be examined.
  • a symbol Eo indicates an examiner's eye.
  • the variable magnification optical system 32 includes a plurality of (for example, three) variable magnification lenses 32a, 32b, and 32c.
  • a plurality of variable magnification lens groups that can be selectively inserted into the optical path of the observation photographing system 6 are provided. These variable power lens groups correspond to different magnifications.
  • a variable power lens group disposed in the optical path of the observation photographing system 6 is used as the variable power optical system 32.
  • the magnification (field angle) of the observation image or captured image of the eye E can be changed.
  • Changing the magnification that is, switching the variable power lens group disposed in the optical path of the observation photographing system 6 is performed by operating the magnification operation knob 11. Further, the magnification can be changed electrically by using a switch or the like (not shown).
  • the beam splitter 34 divides the optical path of the light traveling along the optical axis O1 into an optical path positioned on the extension of the optical axis O1 and an optical path orthogonal to the optical axis O1.
  • the light incident on the optical path positioned on the extension of the optical axis O1 is guided to the examiner's eye Eo through the imaging lens 35, the prism 36, and the eyepiece lens 37.
  • the prism 36 translates the traveling direction of light upward.
  • the light incident on the optical path orthogonal to the optical axis O1 is guided to the image pickup device 43 of the image pickup device 13 through the condenser lens 41 and the mirror 42. That is, the observation imaging system 6 guides the return light from the eye E to the imaging device 13.
  • the image sensor 43 detects the return light and generates an image signal GS.
  • the observation photographing system 6 includes a focusing mechanism 40 for changing the focus position.
  • the focusing mechanism 40 moves the objective lens 31 along the optical axis O1.
  • the focusing mechanism 40 transmits a holding member that holds the objective lens 31, a slide mechanism that moves the holding member in the direction of the optical axis O1, an actuator that generates a driving force, and the driving force to the sliding mechanism. And a member to be used.
  • the movement of the objective lens 31 is performed automatically and / or manually.
  • the computer 100 uses a known focus adjustment method (for example, a phase difference detection method, a contrast detection method, etc.) to set the focus position based on the return light from the eye E. Can be sought. Further, the computer 100 can control the actuator so as to move the objective lens 31 along the optical axis O1 to the determined focus position.
  • the actuator moves the objective lens 31 along the optical axis O1 according to an operation by the user.
  • the observation photographing system 6 may include a first focusing lens disposed at a position on the optical axis O1 between the objective lens 31 and the image sensor 43.
  • the focusing mechanism 40 changes the focus position of the observation photographing system 6 by moving the first focusing lens along the optical axis O1.
  • the focusing mechanism 40 includes a holding member that holds the first focusing lens, a slide mechanism that moves the holding member in the direction of the optical axis O1, an actuator that generates a driving force, and the sliding force. And a member to be transmitted.
  • the movement of the first focusing lens by the focusing mechanism 40 is performed automatically or manually.
  • the whole (or part of) the observation photographing system 6 may be configured to be movable along the optical axis O1.
  • the focusing mechanism 40 changes the focus position of the observation imaging system 6 by moving the entire observation imaging system 6 along the optical axis O1.
  • the focusing mechanism 40 includes a movable stage on which the observation photographing system 6 is mounted, a slide mechanism that moves the movable stage in the direction of the optical axis O1, an actuator that generates a driving force, and the driving force. And a member to be transmitted.
  • the movement of the observation photographing system 6 by the focusing mechanism 40 is automatically or manually performed.
  • the illumination system 8 includes an illumination light source 51, a condenser lens 52, a slit forming unit 53, and an objective lens 54.
  • a symbol O2 indicates the optical axis of the illumination system 8.
  • the illumination light source 51 outputs illumination light.
  • a plurality of light sources may be provided in the illumination system 8.
  • a light source that outputs steady light for example, a halogen lamp and a light emitting diode (LED)
  • a light source that outputs flash light for example, a xenon lamp and LED
  • a light source for observing the anterior segment and a light source for observing the posterior segment may be provided separately.
  • the illumination light source 51 includes a visible light source that outputs visible light.
  • the illumination light source 51 may include an infrared light source that outputs infrared light (for example, light having a central wavelength of 800 nm to 1000 nm).
  • the slit forming unit 53 is used to generate slit light.
  • the slit forming part 53 has a pair of slit blades. By changing the interval (slit width) between these slit blades, the width of the generated slit light can be changed.
  • the illumination system 8 includes a focusing mechanism 50 for changing the focus position of the slit light.
  • the focusing mechanism 50 moves the objective lens 54 along the optical axis O2.
  • the focusing mechanism 50 transmits a holding member that holds the objective lens 54, a slide mechanism that moves the holding member in the direction of the optical axis O1, an actuator that generates a driving force, and the driving force to the sliding mechanism. And a member to be used.
  • the movement of the objective lens 54 is performed automatically and / or manually.
  • the computer 100 can obtain the focus position by analyzing an image on which an image based on the return light from the eye E is drawn. Furthermore, the computer 100 can control the actuator so as to move the objective lens 54 along the optical axis O2 to the determined focus position.
  • the actuator moves the objective lens 54 along the optical axis O2 in accordance with a user operation.
  • the illumination system 8 may include a second focusing lens disposed at a position on the optical axis O2 between the objective lens 54 and the slit forming unit 53.
  • the focusing mechanism 50 changes the focus position of the slit light by moving the second focusing lens along the optical axis O2.
  • the focusing mechanism 50 includes a holding member that holds the second focusing lens, a slide mechanism that moves the holding member in the direction of the optical axis O2, an actuator that generates a driving force, and a sliding mechanism. And a member to be transmitted.
  • the movement of the second focusing lens by the focusing mechanism 50 is performed automatically or manually.
  • the whole (or part) of the illumination system 8 may be configured to be movable along the optical axis O2.
  • the focusing mechanism 50 changes the focus position of the slit light by moving the entire illumination system 8 along the optical axis O2.
  • the focusing mechanism 50 includes a movable stage on which the illumination system 8 is mounted, a slide mechanism that moves the movable stage in the direction of the optical axis O2, an actuator that generates a driving force, and this driving force to the sliding mechanism.
  • a transmission member As in the case of moving the objective lens 54, the movement of the illumination system 8 by the focusing mechanism 50 is performed automatically or manually.
  • the mirror 12 that reflects the illumination light beam output from the illumination system 8 toward the eye E is disposed on the optical axis O2.
  • the illumination system 8 and the mirror 12 are configured to rotate integrally.
  • the slit lamp microscope 1 can acquire a plurality of images by imaging the eye E multiple times while changing the positions of the illumination system 8 and the observation imaging system 6 with respect to the eye E.
  • the slit lamp microscope 1 can acquire a plurality of cross-sectional images of the anterior segment of the subject eye E by photographing the subject eye E a plurality of times while moving the illumination system 8 and the observation photographing system 6.
  • the movement of the illumination system 8 and the observation imaging system 6 for imaging the eye E to be examined a plurality of times may be rotation or translation.
  • the position information indicating the acquisition position (that is, the cross-sectional position) is associated with each of the plurality of cross-sectional images acquired by such control.
  • This position information may include, for example, any one or more of the following: the position of the illumination system 8 (rotation position, translation position); the position of the observation imaging system 6 (rotation position, translation position); Position of the cross section in the front image of the anterior segment acquired by the anterior segment camera 70; information obtained based on one or more of these positions.
  • the position of the illumination system 8 (that is, the position and / or angle) and the position of the observation imaging system 6 (position and / or angle) can be detected by a position detector including an encoder, for example.
  • the position of the illumination system 8 and the position of the observation imaging system 6 can be recognized by the computer 100 that controls the mechanism for moving the illumination system 8 and the observation imaging system 6.
  • the position of the cross section in the front image of the anterior segment of the eye E is based on, for example, the front image of the anterior segment acquired by the anterior segment camera 70 and the position detected by the position detector. Can be obtained. Although details will be described later, a three-dimensional image of the anterior segment can be formed based on such position information and a plurality of cross-sectional images.
  • a plurality of times of imaging performed while changing the position of the illumination system 8 and the position of the observation imaging system 6 may be performed when at least one of the illumination system 8 and the observation imaging system 6 is moving. However, it may be performed when at least one of the illumination system 8 and the observation photographing system 6 is stopped.
  • the movement of the illumination system 8 may be continuous or intermittent, and the movement of the observation imaging system 6 may be continuous or intermittent.
  • the slit lamp microscope 1 can acquire a plurality of images by photographing the eye E multiple times while changing the focus position with respect to the eye E. More specifically, the slit lamp microscope 1 captures the eye E multiple times while changing at least one of the focus position of the observation imaging system 6 and the focus position of the illumination system 8, so that the anterior eye of the eye E is examined. A plurality of cross-sectional images of the part can be acquired.
  • the position information indicating the acquisition position (focus position) is associated with each of the plurality of cross-sectional images acquired by such control.
  • This position information may include, for example, any of the following: control contents for the focusing mechanism 40; control contents for the focusing mechanism 50; objects moved by the focusing mechanism 40 (for example, the objective lens 31, The position of the first focusing lens or the observation photographing system 6); the position of the object (for example, the objective lens 54, the second focusing lens, or the illumination system 8) moved by the focusing mechanism 50; , Position) information obtained based on any one or more.
  • the control content for the focusing mechanism 40 or 50 can be recognized, for example, by the computer 100 that controls it.
  • the position of the object moved by the focusing mechanism 40 or 50 can be detected by, for example, a position detector including an encoder.
  • a three-dimensional image of the anterior segment can be formed based on such control contents and / or position information and a plurality of cross-sectional images.
  • the multiple shootings performed while changing the focus position may be performed in parallel with the change of the focus position, or may be performed when the movement of the focus position is stopped. Further, the focus position may be changed continuously or intermittently.
  • the slit lamp microscope 1 captures the eye E multiple times while changing the position of the illumination system 8, the position of the observation imaging system 6, the focus position of the illumination system 8, and the focus position of the observation imaging system 6. It is possible to acquire a plurality of cross-sectional images. Each of the plurality of cross-sectional images acquired by such control is associated with position information indicating the acquisition position (cross-section position and focus position).
  • Control system configuration> A control system of the slit lamp microscope 1 will be described with reference to FIGS.
  • a configuration example of the control system of the slit lamp microscope 1 is shown in FIG. Note that the computer 100 may include at least some of a plurality of elements constituting the control system.
  • the control unit 101 controls each unit of the slit lamp microscope 1.
  • the control unit 101 includes the observation imaging system 6, the illumination system 8, the moving mechanism 60, the anterior eye camera 70, the image synthesis unit 120, the display unit 130, the focus position detection unit 150, the scan position detection unit 160, and the communication unit. 170 and the like are controlled.
  • the moving mechanism 60 moves the illumination system 8 and the observation photographing system 6.
  • the moving mechanism 60 includes, for example, the moving mechanism unit 3, support arms 16 and 17, and a mechanism that moves the support arms 16 and 17.
  • the moving mechanism 60 may be able to move the illumination system 8 and the observation photographing system 6 independently of each other. This independent movement includes at least the rotation of the illumination system 8 and the rotation of the observation photographing system 6, for example. This independent movement may include at least one of the parallel movement of the illumination system 8 and the parallel movement of the observation photographing system 6.
  • the position (illumination position, illumination angle) of the illumination system 8 with respect to the eye E is changed, and the position of the observation imaging system 6 with respect to the eye E (observation position, observation angle, imaging) (Position, shooting angle) can be changed.
  • the illumination angle is defined as an angle with respect to the optical axis (illumination optical axis) when the illumination system 8 is disposed at a predetermined reference position (neutral position).
  • the observation angle and the photographing angle are defined as, for example, an angle with respect to the optical axis (observation photographing optical axis) when the observation photographing system 6 is disposed at a predetermined reference position (neutral position).
  • the reference of the illumination angle and the reference of the observation angle and the photographing angle may be the same or different from each other.
  • the observation angle and the imaging angle are expressed by the angle ⁇ 1 formed by the r 1 direction with respect to the Z direction, and the illumination angle is the angle ⁇ 2 formed by the r 2 direction with respect to the Z direction. It is expressed by
  • the moving mechanism 60 may be able to move integrally between the illumination system 8 and the observation photographing system 6.
  • This integral movement includes, for example, at least one of parallel movement and rotation.
  • This integral translation can be applied, for example, to scan the anterior segment while maintaining the illumination angle and the imaging angle.
  • this integral rotation is applicable, for example, to scan the anterior segment while changing the illumination angle and the imaging angle (continuously or stepwise).
  • the control related to the observation imaging system 6 includes control of the variable power optical system 32, control of the image sensor 43, control of the focusing mechanism 40, control of the moving mechanism 60 for moving the observation imaging system 6, and the focus position detection unit 150. And control of the scan position detector 160.
  • Control of the variable magnification optical system 32 includes control for changing the magnification of the naked eye observation image or the photographed image of the eye E in response to the operation content on the magnification operation knob 11.
  • Control of the image sensor 43 includes control for changing the charge accumulation time, sensitivity, frame rate, and the like of the image sensor 43 and control for sending the image signal GS obtained by the image sensor 43 to the image composition unit 120.
  • Control of the focusing mechanism 40 includes control for changing the focus position of the observation photographing system 6 by the focusing mechanism 40.
  • Control of the moving mechanism 60 includes control of moving (rotating, translating) the observation photographing system 6.
  • the control of the focus position detection unit 150 includes control for acquiring the position detected by the focus position detection unit 150 and sending the acquired position to the image composition unit 120.
  • the control of the scan position detection unit 160 includes control of acquiring the position detected by the scan position detection unit 160 and sending the acquired position to the image composition unit 120.
  • the control related to the illumination system 8 includes control of the illumination light source 51, control of the slit forming unit 53, control of the focusing mechanism 50, control of the moving mechanism 60 for moving the illumination system 8, control of the focus position detection unit 150, For example, the scan position detection unit 160 is controlled.
  • Examples of the control of the illumination light source 51 include switching on / off of the illumination light source 51 and control for changing the amount of illumination light.
  • Control of the slit forming unit 53 includes control for changing the slit width, control for translating the slit, control for rotating the slit, and the like.
  • Control of the focusing mechanism 50 includes control for changing the focus position of the slit light (focus position of the illumination system 8) by the focusing mechanism 50.
  • Control of the moving mechanism 60 includes control for moving (rotating, translating) the illumination system 8.
  • the control of the focus position detection unit 150 includes control for acquiring the position detected by the focus position detection unit 150 and sending the acquired position to the image composition unit 120.
  • the control of the scan position detection unit 160 includes control of acquiring the position detected by the scan position detection unit 160 and sending the acquired position to the image composition unit 120.
  • the control unit 101 includes a focus control unit 101A, a scan control unit 101B, and a storage unit 102.
  • the focus control unit 101A executes control of the focus position of the observation photographing system 6 and control of the focus position of the illumination system 8.
  • FIG. 5 schematically shows the focus positions of the observation imaging system 6 and the illumination system 8 with respect to the cornea Ec of the eye E to be examined.
  • reference numeral 31 is an objective lens of the observation photographing system 6
  • reference numeral 54 is an objective lens of the illumination system 8.
  • Symbol Cf indicates the front surface of the cornea Ec
  • symbol Cb indicates the rear surface of the cornea Ec
  • the symbol Cc indicates the center position of curvature of the cornea Ec (corneal front surface Cf).
  • the rotation axes of the observation photographing system 6 and the illumination system 8 substantially coincide with the curvature center position Cc.
  • the focus control unit 101A controls a scan (r scan) in the depth direction (that is, the radial direction in the rotation operation) of the eye E with respect to the region of interest.
  • the focusing control unit 101A can control the focusing mechanism 40 and the focusing mechanism 50 in a coordinated manner.
  • the focusing control unit 101A controls the focusing mechanism 40 and the focusing mechanism 50 to observe the positions PS1, PS2, and PS3 in the depth direction of the region of interest (that is, the depth direction in the eye E).
  • the focus position of the photographing system 6 and the focus position of the illumination system 8 are changed.
  • the observation photographing system 6 can photograph the eye E with a depth of field corresponding to each focus position.
  • the observation imaging system 6 can acquire an image of the eye E at the depth of field PC1 corresponding to the position PS1.
  • the focusing control unit 101A can alternately execute control for causing the imaging device 13 to acquire an image and the above-described linked control. Thereby, the focus control unit 101A can control the acquisition of a plurality of cross-sectional images in the depth direction of the region of interest of the eye E to be examined. For example, the focusing control unit 101A can perform control so as to sequentially acquire a cross-sectional image including the position PS1, a cross-sectional image including the position PS2, and a cross-sectional image including the position PS3.
  • the scan control unit 101B performs control for moving the scan position of the eye E with respect to the region of interest in the horizontal direction (a direction substantially orthogonal to the depth direction). Although detailed description is omitted, control for moving the scan position in the vertical direction substantially orthogonal to both the horizontal direction and the depth direction can also be executed in the same manner.
  • FIG. 6 schematically shows the focus positions of the observation imaging system 6 and the illumination system 8 with respect to the cornea Ec.
  • FIG. 6 the same elements and portions as those in FIG.
  • the scan control unit 101B controls the scan ( ⁇ scan) in the horizontal direction (that is, the declination direction in the rotation operation) with respect to the region of interest of the eye E to be examined.
  • the scan control unit 101B controls the moving mechanism 60 so that the rotation of the illumination system 8 and the rotation of the observation photographing system 6 are linked.
  • the scan control unit 101B moves the observation imaging system 6 and the illumination system 8 in the order of the horizontal scan positions PS1, PS11, and PS12.
  • the scan control unit 101B can alternately execute control for causing the imaging device 13 to acquire an image and control of the moving mechanism 60. Accordingly, the scan control unit 101B can perform control for acquiring a plurality of cross-sectional images arranged in the horizontal direction in the region of interest of the eye E to be examined. For example, the scan control unit 101B can perform control so as to sequentially acquire a cross-sectional image including the position PS1, a cross-sectional image including the position PS11, and a cross-sectional image including the position PS12.
  • the focusing control unit 101A can change the focus position of the observation photographing system 6 and the focus position of the illumination system 8 in the depth direction. Thereby, a cross-sectional image can be acquired for each of the positions PS1, PS2, PS3, PS11, PS21, PS31, PS12, PS22, and PS32.
  • the anterior capsule of the crystalline lens can be suitably imaged by translating the observation imaging system 6 and the illumination system 8 integrally.
  • the observation and photographing system 6 and the illumination system 8 are integrally translated, whereby the posterior capsule and anterior capsule of the crystalline lens can be imaged appropriately.
  • An anterior segment of the eye can be imaged by the anterior segment camera 70 in parallel with scanning (that is, collecting a plurality of cross-sectional images) by movement (rotation, translation) of the optical system.
  • This anterior ocular segment imaging may be a plurality of imaging operations or a moving image imaging. This makes it possible to detect the movement and change of the anterior segment during scanning and to perform tracking. It is also possible to capture the anterior segment when scanning is not being performed.
  • the scan position (cross-sectional position) can be presented together with the front image of the anterior segment acquired by the anterior segment camera 70.
  • an image representing the scan position can be displayed on the front image.
  • the relative position between the front image and the scan position can be obtained based on the position (known) of the anterior eye camera 70 and the output from the scan position detection unit 160.
  • the storage unit 102 stores various computer programs and data.
  • the computer program includes a calculation program and a control program for operating the slit lamp microscope 1 according to a predetermined operation mode.
  • the data includes data used in various tests.
  • the scan information includes, for example, control information for moving the observation imaging system 6 and the illumination system 8 to a plurality of scan positions of the region of interest, and the observation imaging system 6 and the illumination at one or more depth directions for each scan position.
  • Such control information is stored in the storage unit 102 in advance.
  • the control unit 101 uses the computer program and scan information stored in the storage unit 102 to control the horizontal scan position by the scan control unit 101B and the focus position control by the focus control unit 101A individually. Or can be performed in conjunction.
  • the control unit 101 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, and the like.
  • a control program is stored in advance in a storage device such as a ROM or a hard disk drive.
  • the operation of the control unit 101 is realized by cooperation of software such as a control program and hardware such as a processor.
  • the control unit 101 is disposed in the main body (for example, in the base 4) of the slit lamp microscope 1 or the computer 100.
  • the image synthesis unit 120 synthesizes a plurality of cross-sectional images acquired by the imaging device 13 in accordance with the control executed by the focus control unit 101A and / or the scan control unit 101B.
  • the image synthesizing unit 120 synthesizes a plurality of cross-sectional images acquired by the imaging device 13 while changing the focus position by the focusing mechanism 40 and the focusing mechanism 50.
  • the plurality of cross-sectional images are arranged in the depth direction.
  • the plurality of cross sections depicted by the plurality of cross section images are arranged in the same plane.
  • a composite image constructed from such a plurality of cross-sectional images is a two-dimensional cross-sectional image having a depth of field deeper than that of each cross-sectional image (in other words, pan-focus or deep-focus).
  • the image synthesizing unit 120 can form a three-dimensional image by synthesizing a plurality of (two-dimensional) cross-sectional images that are not arranged in the same plane.
  • a three-dimensional image means an image (image data) in which pixel positions are defined by a three-dimensional coordinate system.
  • stack data is image data obtained by three-dimensionally arranging a plurality of cross-sectional images obtained at a plurality of scan positions based on the positional relationship of the scan positions. More specifically, stack data is obtained by expressing a plurality of cross-sectional images originally defined by individual two-dimensional coordinate systems by the same three-dimensional coordinate system (that is, by embedding them in the same three-dimensional space). Image data.
  • each of these cross-sectional images is projected onto a cross-section along the Z direction.
  • a cross-sectional image taken at an illumination angle ⁇ 2 ⁇ 0 degrees can be projected onto a cross section (for example, an XZ cross section or a YZ cross section) along the Z direction.
  • a plurality of projection images parallel to each other are obtained. The position of each projection image is determined based on the corresponding cross-sectional image.
  • the position of the projection image can be determined so that a predetermined position (for example, the center position) of the corresponding cross-sectional image matches a predetermined position (for example, the center position) of the projection image.
  • Stack data can be formed by embedding a plurality of projection images whose positions are determined in this manner in the same three-dimensional space.
  • volume data also called voxel data
  • the volume data is image data in which voxels that are three-dimensional pixels are three-dimensionally arranged.
  • the volume data is formed, for example, by performing an interpolation process on the stack data and making the pixels three-dimensional (voxelized).
  • the image composition unit 120 includes an array processing unit 121 and a composition processing unit 122.
  • the array processing unit 121 converts a plurality of cross-sectional image arrays acquired by r-scan, ⁇ -scan (rotation of the optical system), or a combination thereof into position information (for example, focus position, A plurality of cross-sectional images can be arranged in accordance with the specified arrangement.
  • the array processing unit 121 associates an array of a plurality of projection images based on a plurality of cross-sectional images acquired by r scan, ⁇ scan (rotation of the optical system), or a combination thereof with these projection images.
  • a plurality of projection images can be arranged in accordance with the specified arrangement by specifying the position information (for example, focus position, cross-sectional position).
  • the array processing unit 121 converts the array of a plurality of cross-sectional images acquired by the combination of the r-scan and the parallel movement of the optical system into position information (for example, a focus position and a cross-sectional position) associated with these cross-sectional images. Based on the specified arrangement, a plurality of cross-sectional images are arranged. Alternatively, the arrangement processing unit 121 converts the arrangement of a plurality of projection images based on a plurality of cross-sectional images acquired by a combination of r-scan and parallel movement of the optical system to position information (for example, focus information) associated with these projection images. A plurality of projection images can be arranged in accordance with the specified arrangement.
  • the array processing unit 121 receives a focus position (for example, the above-described position information) of the slit light detected by the focus position detection unit 150 from the control unit 101 and receives a plurality of cross-sectional images (or a plurality of projection images). Arrange. Further, the array processing unit 121 receives the positions (for example, the above-described position information) of the observation imaging system 6 and the illumination system 8 detected by the scan position detection unit 160 from the control unit 101, and a plurality of cross-sectional images (or a plurality of cross-sectional images). Of projection images).
  • a focus position for example, the above-described position information
  • the array processing unit 121 receives the positions (for example, the above-described position information) of the observation imaging system 6 and the illumination system 8 detected by the scan position detection unit 160 from the control unit 101, and a plurality of cross-sectional images (or a plurality of cross-sectional images).
  • the composition processing unit 122 synthesizes a plurality of cross-sectional images arranged by the array processing unit 121.
  • This image composition processing may include, for example, processing for forming stack data, and may further include processing for forming volume data.
  • the image composition unit 120 can form a three-dimensional image or a two-dimensional image based on a plurality of cross-sectional images of the anterior eye part of the eye E to be examined.
  • the image synthesis unit 120 can synthesize a plurality of cross-sectional images without using the position information described above.
  • the image composition unit 120 identifies an image region (common region) depicting a common part in two or more different cross-sectional images by image analysis, and pastes these cross-sectional images so that the identified common regions overlap. Can be matched.
  • the focus position detection unit 150 and the scan position detection unit 160 do not need to be provided.
  • the information obtained by the focus position detection unit 150 and the scan position detection unit 160 may be used for “rough adjustment of the image position” and then “fine adjustment of the image position” by image analysis. Good.
  • At least a part of the function of the image composition unit 120 may be provided in a device different from the slit lamp microscope 1.
  • a computer capable of communicating with the slit lamp microscope 1 can be provided with at least a part of the functions of the image composition unit 120.
  • at least a part of the function of the image composition unit 120 can be provided in a computer (for example, a terminal 3000-n, a server, etc.) provided in a facility where the slit lamp microscope 1 is installed.
  • at least a part of the function of the image composition unit 120 can be provided in the management server 4000 or a computer that can communicate with the management server 4000.
  • at least a part of the function of the image composition unit 120 can be provided in a remote terminal 5000m or a computer that can communicate with the remote terminal 5000m.
  • the focus position detection unit 150 includes, for example, a first focus position detection unit that detects the focus position of the observation photographing system 6 and a second focus position detection unit that detects the focus position of the illumination system 8.
  • the first focus position detection unit and / or the second focus position detection unit may include a position sensor such as an encoder or a potentiometer, for example.
  • the first focus position detection unit includes a processor that obtains the focus position of the observation imaging system 6 based on the content of the control executed by the focusing control unit 101A on the observation imaging system 6 (that is, the control history). But you can.
  • the second focus position detection unit may include a processor that obtains the focus position of the illumination system 8 based on the content of the control executed by the focus control unit 101A on the illumination system 8 (that is, the control history). Good.
  • the scan position detection unit 160 includes, for example, a first position detection unit that detects the position of the observation imaging system 6 and a second position detection unit that detects the position of the illumination system 8.
  • the first position detection unit and / or the second position detection unit includes, for example, a position sensor for detecting the position of the base 4 and a rotation angle sensor for detecting the positions of the support arms 16 and 17. .
  • the first position detection unit may include a processor that obtains the position of the observation imaging system 6 based on the contents of the control executed by the scan control unit 101B on the observation imaging system 6 (that is, the control history).
  • the second position detection unit may include a processor that obtains the position of the illumination system 8 based on the content of the control (that is, the control history) executed by the scan control unit 101B on the illumination system 8.
  • the display unit 130 displays various information under the control of the control unit 101.
  • the display unit 130 includes a flat panel display such as a liquid crystal display (LCD).
  • the display unit 130 may be provided in the main body of the slit lamp microscope 1 or may be provided in the computer 100.
  • the operation unit 140 includes an operation device for operating the slit lamp microscope 1 and an input device for inputting information.
  • the operation unit 140 includes buttons and switches (for example, the operation handle 5 and the magnification operation knob 11) provided on the slit lamp microscope 1 and operation devices (for example, a mouse and a keyboard) provided on the computer 100. It is.
  • the operation unit 140 may include an arbitrary operation device or input device such as a trackball, an operation panel, a switch, a button, or a dial.
  • the display unit 130 and the operation unit 140 are separately illustrated, but at least a part of the display unit 130 and at least a part of the operation unit 140 may be the same device.
  • a specific example is a touch screen.
  • the communication unit 170 performs data communication between the slit lamp microscope 1 and another device.
  • the method of data communication is arbitrary.
  • the communication unit 170 includes a communication interface compliant with the Internet, a communication interface compliant with a dedicated line, a communication interface compliant with LAN, a communication interface compliant with short-range communication, and the like.
  • Data communication may be wired communication or wireless communication.
  • the data transmitted and received by the communication unit 170 may be encrypted.
  • the control unit 101 includes an encryption processing unit that encrypts transmission data and a decryption processing unit that decrypts reception data.
  • the configuration of the management server 4000 will be described.
  • the management server 4000 illustrated in FIG. 7 includes a control unit 4010, a communication establishment unit 4100, and a communication unit 4200.
  • the control unit 4010 executes control of each unit of the management server 4000.
  • the control unit 4010 may be able to execute other arithmetic processes.
  • the control unit 4010 includes a processor.
  • the control unit 4010 may further include a RAM, a ROM, a hard disk drive, a solid state drive, and the like.
  • the control unit 4010 includes a communication control unit 4011 and a transfer control unit 4012.
  • the communication control unit 4011 executes control related to establishment of communication between a plurality of devices including a plurality of ophthalmologic imaging apparatus 2000-i n and a plurality of terminals 3000-n and a plurality of remote terminals 5000 m. For example, the communication control unit 4011 sends a control signal for establishing communication to each of two or more devices selected by the selection unit 4120 described later from among a plurality of devices included in the ophthalmic system 1000.
  • the transfer control unit 4012 performs control related to the exchange of information between two or more devices with which communication has been established by the communication establishment unit 4100 (and the communication control unit 4011). For example, the transfer control unit 4012 functions to transfer information transmitted from one of at least two devices whose communication has been established by the communication establishment unit 4100 (and the communication control unit 4011) to another device. To do.
  • transfer control unit 4012 information transmitted from the ophthalmologic photographing apparatus 2000-i n (e.g., ophthalmic photographing apparatus acquired image by 2000-i n, information, etc.) that is input to the ophthalmologic photographing apparatus 2000-i n can be transferred to the remote terminal 5000 m.
  • the transfer control unit 4012, information transmitted from the remote terminal 5000 m e.g., specifying the result of the operation mode of the ophthalmologic photographing apparatus 2000-i n
  • the remote terminal 5000 m e.g., specifying the result of the operation mode of the ophthalmologic photographing apparatus 2000-i n
  • the transfer control unit 4012 may have a function of processing information received from the transmission source device. In this case, the transfer control unit 4012 can transmit at least one of the received information and the information obtained by the processing process to the transfer destination device.
  • the transfer control unit 4012 can be transmitted to the remote terminal 5000m etc. by extracting a part of the information transmitted from the ophthalmologic photographing apparatus 2000-i n the like. Further, information transmitted from the ophthalmologic photographing apparatus 2000-i n the like (for example, an image of the eye E) were analyzed by the management server 4000, or other device, the analysis results (and original information) remote terminal 5000m etc. You may make it transmit to.
  • the management server 4000 or other device, a three-dimensional image from these cross-sectional image (e.g., stack data or volume data) It is possible to construct the transfer control unit 4012 so that the constructed three-dimensional image is transmitted to the remote terminal 5000m.
  • the management server 4000 or other device, to construct the volume data from the stack data, the transfer control unit 4012, Construction It is possible to configure so that the volume data thus transmitted is transmitted to the remote terminal 5000m.
  • the data processing that can be executed by the management server 4000 or another device is not limited to the above example, and may include arbitrary data processing.
  • Communication establishing unit 4100 establishes communication between at least two devices selected from among a plurality of devices including a plurality of ophthalmologic imaging apparatus 2000-i n and a plurality of terminals 3000-n and a plurality of remote terminals 5000m To execute the process.
  • “establishing communication” means, for example, (1) establishing one-way communication from a disconnected state, (2) establishing two-way communication from a disconnected state, This is a concept including at least one of (3) switching from a state where only reception is possible to a state where transmission is possible, and (4) switching from a state where only transmission is possible to a state where reception is possible.
  • connection of communication means, for example, (1) disconnecting communication from a state where unidirectional communication is established, (2) disconnecting communication from a state where bidirectional communication is established, (3) Switching from a state where bidirectional communication is established to one-way communication, (4) Switching from a state where transmission and reception are possible to a state where only reception is possible, and (5) a state where transmission and reception are possible.
  • At least one of the communication request (interrupt request) for interruption can be transmitted to the management server 4000.
  • the call request and the interrupt request are transmitted manually or automatically.
  • the management server 4000 (communication unit 4200) receives ophthalmologic imaging apparatus 2000-i n, the terminal 3000-n, or the transmitted communication request from the remote terminal 5000 m.
  • the communication establishment unit 4100 may include a selection unit 4120.
  • Selecting unit 4120 for example, the ophthalmologic imaging apparatus 2000-i n, based on the terminal 3000-n, or a communication request transmitted from the remote terminal 5000 m, ophthalmologic photographing apparatus 2000-i n, the terminal 3000-n, and the remote terminal
  • One or more devices other than the device that transmitted the communication request are selected from 5000 m.
  • Ophthalmic imaging apparatus 2000-i n or communication request from the terminal 3000-n e.g., a request for interpretation of images acquired by the ophthalmic photographing apparatus 2000-i n
  • Communication establishing unit 4100 establishes a remote terminal 5000m selected, the communication between at least one of the ophthalmologic photographing apparatus 2000-i n and the terminal 3000-n.
  • the selection of the device according to the communication request is executed based on, for example, a preset attribute.
  • this attribute include the type of examination (for example, the type of imaging modality, the type of image, the type of disease, the type of candidate disease, etc.), the required degree of expertise / skill level, and the type of language.
  • the communication establishment unit 4100 may include a storage unit 411 in which attribute information created in advance is stored. In the attribute information, attributes of the remote terminal 5000m and / or the user (doctor) are recorded.
  • the doctor is identified by, for example, a doctor ID assigned in advance.
  • the remote terminal 5000m is identified by, for example, a device ID or network address assigned in advance.
  • the attribute information includes, as attributes of each doctor, a specialized field (for example, clinical department, specialized disease, etc.), a degree of specialization / skill level, and a usable language type.
  • the communication request transmitted ophthalmologic photographing apparatus 2000-i n, the terminal 3000-n, or from a remote terminal 5000m may include information about the attributes.
  • interpretation is transmitted from the ophthalmologic photographing apparatus 2000-i n request (i.e., diagnosis request) may include any information the following: (1) information indicating the type of imaging modality; (2) Image information indicating the type; (3) information indicating the disease name and candidate disease name; (4) information indicating the difficulty of interpretation; (5) the user of the ophthalmic photographing apparatus 2000-i n and / or the terminal 3000-n Information indicating the language used.
  • the selection unit 4120 can select one of the remote terminals 5000m based on the interpretation request and the attribute information stored in the storage unit 4110. At this time, the selection unit 4120 collates the information regarding the attribute included in the interpretation request with the information recorded in the attribute information stored in the storage unit 4110. Thereby, the selection unit 4120 selects, for example, the remote terminal 5000m corresponding to the doctor corresponding to any of the following attributes: (1) a doctor who specializes in the imaging modality; (2) specializes in the image type (3) Doctor who specializes in the disease (candidate disease); (4) Doctor who can interpret the difficulty level; (5) Doctor who can use the language.
  • the association between the doctor and the remote terminal 5000m is performed by, for example, the doctor ID input when logging in to the remote terminal 5000m (or the ophthalmic system 1000).
  • other devices e.g., ophthalmic imaging apparatus 2000-i n, the terminal 3000-n, and one of the remote terminal 5000 m
  • For scheme and encryption of the data communication may be similar to the ophthalmologic photographing apparatus communication unit 170 of the 2000-i n.
  • the remote terminal 5000m illustrated in FIG. 8 includes a control unit 5010, a data processing unit 5100, a communication unit 5200, and an operation unit 5300.
  • Control unit 5010 executes control of each unit of the remote terminal 5000m.
  • the control unit 5010 may be able to execute other arithmetic processes.
  • the control unit 5010 includes a processor, RAM, ROM, hard disk drive, solid state drive, and the like.
  • the control unit 5010 includes a display control unit 5011.
  • the display control unit 5011 controls the display device 6000m.
  • Display device 6000m may be included in remote terminal 5000m or may be a peripheral device connected to remote terminal 5000m.
  • the display control unit 5011 displays an image of the anterior segment of the eye E on the display device 6000m. Examples of the anterior segment image include a three-dimensional rendering image, a front image, an OCT image, an image representing an analysis result, and a slit image.
  • the control unit 5010 includes a report creation control unit 5012.
  • the report creation control unit 5012 executes various controls for creating a report related to information displayed by the display control unit 5011. For example, the report creation control unit 5012 displays a screen for creating a report and a graphical user interface (GUI) on the display device 6000m. Further, the report creation control unit 5012 inputs information input by the user, an anterior ocular segment image, image analysis data, and the like into a predetermined report template.
  • GUI graphical user interface
  • the data processing unit 5100 executes various data processing.
  • the data processing unit 5100 it is possible to construct a three-dimensional image (e.g., stack data or volume data) from a plurality of cross-sectional images transmitted from the slit lamp microscope 1 (ophthalmic imaging apparatus 2000-i n).
  • the data processing unit 5100 may be constructed volume data from the stack data transmitted from the slit lamp microscope 1 (ophthalmic imaging apparatus 2000-i n).
  • the data processing unit 5100 includes a registration unit 5105, a partial area designation unit 5110, a rendering unit 5120, and an analysis unit 5130.
  • the registration unit 5105 performs registration between the front image and the three-dimensional image of the anterior segment. As described above, in order to acquire a front image and a three-dimensional image acquired by the anterior eye camera 70 based on the position (known) of the anterior eye camera 70 and the output from the scan position detection unit 160. It is possible to obtain a relative position with respect to the position (scan position) to which this scan is applied. The registration unit 5105 can perform registration between the front image and the three-dimensional image of the anterior segment based on this relative position.
  • the registration unit 5105 constructs a front image (projection image) by projecting a three-dimensional image of the anterior segment in the Z direction, and the front image and the projection image acquired by the anterior segment camera 70. Can be registered.
  • the registration unit 5105 of this example executes a process for specifying a feature point in the front image acquired by the anterior eye camera 70 and a process for specifying a feature point in the projection image. Registration between the front image and the projection image is performed so that the positions match. According to this example, it is not necessary to detect the scan position.
  • Partial region specifying unit 5110 the display image on the basis of the image or in transmitted from the ophthalmologic photographing apparatus 2000-i n, that specifies the partial region.
  • the control unit 5010 stores the three-dimensional image in a storage device such as the hard disk drive or the solid state drive described above.
  • the display control unit 5011 can display an image based on the three-dimensional image on the display device 6000m.
  • the control unit 5010 sends a three-dimensional image (for example, stack data or volume data) to the rendering unit 5120.
  • the rendering unit 5120 renders a three-dimensional image to form an image.
  • the display control unit 5011 displays the image formed by the rendering unit 5120 on the display device 6000m.
  • the user (doctor) of the remote terminal 5000m can designate a partial area of the image displayed on the display device 6000m. This designation operation is performed using the operation unit 5300. For example, the user can specify a desired range of the display image using a pointing device.
  • the partial area specifying unit 5110 specifies a partial area of the three-dimensional image corresponding to the partial area of the display image specified by the user.
  • the display image is an image obtained by rendering a three-dimensional image. Therefore, the partial area of the three-dimensional image corresponding to the partial area of the display image is easily specified based on the processing content of this rendering.
  • a partial region of the three-dimensional image can be specified using this reference image.
  • the reference image may be a front image acquired by the anterior eye camera 70, for example.
  • an OCT image of the anterior segment can be used as a reference image.
  • At least part of the reference image and at least part of the three-dimensional image may depict the same part of the eye E.
  • the registration unit 5105 can perform registration between the reference image and the three-dimensional image.
  • the display control unit 5011 can display a reference image (or a wide area image) on the display device 6000m.
  • the user can designate a partial area of the reference image (or wide area image) using the operation unit 5300.
  • the partial area designation unit 5110 can designate a partial area of the three-dimensional image based on the partial area of the reference image (or wide area image) designated by the user and the registration result.
  • the partial area designation unit 5110 may automatically designate a partial area of the three-dimensional image regardless of a user operation. Such automatic designation may be performed using an artificial intelligence processor.
  • the partial region designation unit 5110 designates a partial region of the three-dimensional image by analyzing the front image of the anterior segment or by analyzing at least one of the three-dimensional image and the display image based thereon. be able to.
  • the partial area designating unit 5110 applies segmentation to a three-dimensional image or a display image, identifies an image area corresponding to a predetermined tissue of the eye E, and designates the partial area based on the identified image area. be able to.
  • the predetermined tissue of the eye E is determined according to an arbitrary condition, for example. Examples of this condition include the type of imaging modality, the type of image, and the (candidate) disease name.
  • the rendering unit 5120 applies rendering to the image. For example, the rendering unit 5120 renders the three-dimensional image based on the partial region of the three-dimensional image designated by the partial region designation unit 5110.
  • Rendering may be an arbitrary process, and includes, for example, three-dimensional computer graphics.
  • Three-dimensional computer graphics is a three-dimensional image obtained by converting a virtual three-dimensional object (three-dimensional image such as stack data and volume data) in a three-dimensional space defined by a three-dimensional coordinate system into two-dimensional information. Is an arithmetic technique for creating
  • rendering examples include volume rendering, maximum value projection (MIP), minimum value projection (MinIP), surface rendering, multi-section reconstruction (MPR), projection image formation, and shadowgram formation. Further examples of rendering include reproduction of a cross-sectional image obtained by the slit lamp microscope 1 and formation of a Scheimpflug image. In addition, the rendering unit 5120 may be able to execute an arbitrary process applied with such rendering.
  • the analysis unit 5130 analyzes a three-dimensional image of the anterior segment of the eye E, a rendering image thereof, a front image, and the like.
  • the rendering unit 5120 can specify a region corresponding to the cornea (corneal region) in the three-dimensional image of the anterior segment.
  • the rendering unit 5120 can specify a region (corneal surface region) corresponding to the surface (front surface) of the cornea.
  • the rendering unit 5120 can specify a region (corneal back region) corresponding to the back surface (rear surface) of the cornea.
  • image region specification includes known image processing such as segmentation, edge detection, and threshold processing.
  • the analyzing unit 5130 can analyze the corneal surface region to obtain the corneal curvature radius. For example, the analysis unit 5130 can calculate a radius of curvature at one or more representative points of the cornea (such as the apex of the cornea).
  • the report creation control unit 5012 can input at least one of the corneal curvature radius obtained by the analysis unit 5130 and information based on the radius to the report template.
  • information based on the corneal curvature radius there is contact lens identification information (such as a model number).
  • the analysis unit 5130 may calculate the radius of curvature at a number of positions of the cornea based on the corneal surface region specified by the rendering unit 5120. That is, the analysis unit 5130 may obtain a corneal curvature radius distribution. Furthermore, the analysis unit 5130 can obtain a deviation distribution representing a deviation of the corneal curvature radius distribution from a preset standard distribution. This processing includes registration between the corneal curvature radius distribution and the standard distribution, and comparison (difference or the like) between the values of the corresponding positions.
  • the report creation control unit 5012 can input at least one of the deviation distribution obtained by the analysis unit 5130 and information based on the deviation distribution to the report template. Here, as an example of information based on the deviation distribution, there is contact lens identification information (such as a model number).
  • the display control unit 5011 can display the deviation distribution obtained by the analysis unit 5130 on the display device 6000m. At this time, the magnitude of the deviation from the standard value can be represented by a color. As a result, a color map representing the deviation distribution of the corneal curvature radius is displayed.
  • the report creation control unit 5012 can input such a color map into the report.
  • the registration unit 5105 can perform registration between the front image acquired by the anterior eye camera 70 and the three-dimensional image based on the scan.
  • the display control unit 5011 can display the front image on the display device 6000m.
  • the user can designate a region of interest in the displayed front image using a user interface such as the operation unit 5300.
  • the attention area is, for example, a line segment representing a cross section or an area representing a three-dimensional area.
  • the rendering unit 5120 identifies a partial area of the three-dimensional image corresponding to the designated attention area based on the registration result between the front image and the three-dimensional image. Furthermore, the rendering unit 5120 forms a rendering image corresponding to the specified partial area.
  • the rendering unit 5120 forms a cross-sectional image representing a plane (cross section) including the line segment.
  • the rendering unit 5120 forms a rendering image (for example, a volume rendering image) representing a three-dimensional area including the two-dimensional area.
  • the display control unit 5011 displays the rendering image corresponding to the partial area and the front surface acquired by the anterior eye camera 70. Images can be displayed on the display device 6000m. Furthermore, the display control unit 5011 can display an image (rendering region image) representing a region corresponding to the rendering image on the front image.
  • the rendering area image is, for example, an image representing a position designated by the user with respect to the front image, and is typically an image indicating the position of a line segment or an image indicating the position of the two-dimensional area described above. .
  • the rendering unit 5120 can form a stereoscopic image from a three-dimensional image based on scanning.
  • the stereoscopic image may be, for example, a volume rendering image, a surface rendering image, an image expressing a three-dimensional area specified by segmentation, or the like.
  • the display control unit 5011 can display the stereoscopic image formed by the rendering unit 5120 on the display device 6000m.
  • the user can operate the stereoscopic image displayed on the display device 6000m using a user interface such as the operation unit 5300. Examples of this operation include rotation and enlargement / reduction.
  • the rotation operation may be a drag operation, for example.
  • the enlargement / reduction operation may be, for example, an operation on a GUI (widget) or a scroll wheel operation.
  • opacity alpha value
  • the rendering unit 5120 can specify a crystalline region in a three-dimensional image based on scanning. This processing includes, for example, segmentation and edge detection.
  • the analysis unit 5130 can obtain a turbidity distribution by analyzing the lens region specified by the rendering unit 5120. This processing includes, for example, threshold processing. Lens opacity is seen in cataract eyes and the like.
  • the report creation control unit 5012 can input at least one of the obtained turbidity distribution and information based thereon into a report template.
  • the turbidity distribution is expressed as a map, for example.
  • the map representing the turbidity distribution may be a color map expressing the turbidity intensity with colors.
  • the display control unit 5011 can display such a turbidity distribution (map) on the display device 6000m. In addition, it is possible to observe the lens region by arbitrarily rotating it, or to observe an arbitrary slice of the lens region. It is also possible to apply arbitrary analysis (for example, thickness measurement, volume measurement, etc.) to the
  • the rendering unit 5120 can specify a vitreous region in a three-dimensional image based on scanning. This processing includes, for example, segmentation and edge detection. It is possible to observe the vitreous region while rotating it arbitrarily, or to observe an arbitrary slice of the vitreous region. It is also possible to apply arbitrary analysis to the vitreous region (for example, measurement of the posterior vitreous cortex pocket).
  • the communication unit 5200 performs data communication with another device (e.g., any of the ophthalmic imaging apparatus 2000-i n, the terminal 3000-n and the management server 4000,).
  • another device e.g., any of the ophthalmic imaging apparatus 2000-i n, the terminal 3000-n and the management server 4000,.
  • For scheme and encryption of the data communication may be similar to the ophthalmologic photographing apparatus communication unit 170 of the 2000-i n.
  • the operation unit 5300 is used for operating the remote terminal 5000m, inputting information to the remote terminal 5000m, and the like. In the present embodiment, the operation unit 5300 is used to create a report.
  • the operation unit 5300 includes an operation device and an input device.
  • the operation unit 5300 includes, for example, a mouse, a keyboard, a trackball, an operation panel, a switch, a button, a dial, and the like.
  • the operation unit 5300 may include a touch screen.
  • the operation unit 5300 can be used to specify the operation mode of the slit lamp microscope 1.
  • a three-dimensional imaging mode can be provided.
  • the three-dimensional imaging mode is an operation mode for acquiring a three-dimensional image of the eye to be examined.
  • the control unit 101 of the slit lamp microscope 1 controls the illumination system 8, the observation imaging system 6, the moving mechanism 60, and the focusing mechanisms 40 and 50 in association with each other, so The imaging device 13 is made to acquire a plurality of cross-sectional images of the eye part.
  • the operation mode of the slit lamp microscope 1 is not limited to the three-dimensional imaging mode.
  • the device used to specify the operation mode is not limited to the operation unit 5300.
  • the operation mode can be designated using the operation unit 140 or the terminal 3000-n of the slit lamp microscope 1.
  • the mode of operation mode designation is not limited to such manual designation.
  • an operation mode previously applied to the subject can be acquired from an electronic medical record or the like and designated.
  • FIGS. 9A and 9E show examples of usage patterns of the ophthalmic system 1000.
  • FIGS. 9A and 9E are steps performed in any of the first to Nth facilities
  • FIGS. 9B and 9C are steps performed in the management server 4000
  • FIG. This is a step performed in the terminal 5000m.
  • the ophthalmologic imaging apparatus 2000-i n is assumed to be slit lamp microscope 1.
  • communication between the slit lamp microscope 1 (and / or the terminal 3000-n) and the management server 4000 has already been established.
  • communication between the slit lamp microscope 1 (and / or the terminal 3000-n) and the management server 4000 may be established at an arbitrary timing in the period from step S1 to step S6 in FIG. 9A.
  • communication between the management server 4000 and the remote terminal 5000m has already been established, or is established at an arbitrary timing in the period from step S1 in FIG. 9A to step S14 in FIG. 9B.
  • the processes shown in FIGS. 9A to 9E are executed in, for example, several minutes to several tens of minutes. In other words, the feedback (report) can be obtained within a few minutes to several tens of minutes after the image is taken with the slit lamp microscope 1.
  • FIG. 9A (S1: Input subject information to the ophthalmologic imaging apparatus)
  • subject information is input to the slit lamp microscope 1 (or terminal 3000-n).
  • the input subject information is stored in the storage unit 102.
  • the input subject information may be transmitted to the management server 4000 at this stage.
  • the subject information includes, for example, a subject ID and background information.
  • the management server 4000 can select the remote terminal 5000m (step S13 in FIG. 9B) at an arbitrary timing after receiving the subject information.
  • the subject ID includes, for example, an ID (patient ID) at a medical facility, an ID at a medical examination, an ID at a medical examination, and the like. These are examples, and the subject ID is not limited to these.
  • the background information is arbitrary information about the subject.
  • the interview information of the subject information entered by the subject on a predetermined sheet, and recorded in an arbitrary item of the electronic medical record of the subject Information, images stored in the subject's account, etc.
  • background information includes gender, age, height, weight, disease name, candidate disease name, test results (such as visual acuity values, eye refractive power values, and intraocular pressure values), images (such as an OCT image of the anterior segment) ), Refractive history (glasses, contact lenses, etc.) wearing history and frequency, examination history, treatment history.
  • the user of the slit lamp microscope 1 can input subject information using the operation unit 140.
  • the control unit 101 and the communication unit 170 access an information processing system (for example, a customer management system, an electronic medical record system, a medical image archiving system, etc.) installed in the facility via a communication path, and Information can be acquired.
  • the subject information recorded on the recording medium can be read using a data reader.
  • the slit lamp microscope 1 starts acquiring the front image of the anterior segment of the eye E to be examined by the anterior segment camera 70.
  • the anterior segment camera 70 starts moving image shooting of the anterior segment.
  • the timing which acquires a front image, and the timing which starts acquisition are not limited to that of this example.
  • the operation mode of the slit lamp microscope 1 is set to the three-dimensional imaging mode. As described above, the designation (or selection) of the operation mode is performed manually or automatically.
  • the slit lamp microscope 1 scans the anterior segment of the eye E in the three-dimensional imaging mode set in step S3. Thereby, a plurality of cross-sectional images of the anterior segment of the eye E to be examined are obtained.
  • the image composition unit 120 of the slit lamp microscope 1 forms a three-dimensional image based on the plurality of cross-sectional images acquired in step S4.
  • the management server 4000, the remote terminal 5000m, or another device may execute the 3D image forming process.
  • the control unit 101 of the slit lamp microscope 1 controls the communication unit 170 to transmit the acquired data to the management server 4000.
  • the transmitted data includes subject information input in step S1, at least one front image started to be acquired in step S2, a three-dimensional image formed in step S5, and identification information of the facility ( Facility ID).
  • a plurality of cross-sectional images acquired in step S4 are transmitted to the management server 4000 instead of the three-dimensional image.
  • the communication unit 4200 of the management server 4000 receives the data transmitted by the slit lamp microscope 1 in step S6.
  • the control unit 4010 stores the data received in step S11 in a storage device such as a hard disk drive or a solid state drive, or an external database.
  • the data is stored so as to be searchable based on, for example, a subject ID or facility ID.
  • the selection unit 4120 selects one of the plurality of remote terminals 5000m based on the data received in step S11. As described above, various attributes such as examination type (eg, imaging modality type, image type, disease type, candidate disease type, etc.), required specialization / skill level, language type, etc. It is also possible to select the remote terminal 5000m with reference to FIG.
  • the selection unit 4120 may have a function of monitoring the operating state (communication establishment information) of each remote terminal 5000m. With this monitoring function, the selection unit 4120 includes a remote terminal 5000m that is not currently operating (a terminal that is not currently used for interpretation, a terminal that is currently performing interpretation, etc., but has a sufficient schedule, and a reservation for use) No terminal etc.) can be selected. Thereby, it is possible to select the remote terminal 5000m that is not currently used for interpretation of other subjects.
  • the monitoring function includes, for example, a flag indicating the operating state of each remote terminal 5000m based on information input from the remote terminal 5000m periodically or non-periodically, or a response to information transmitted to the remote terminal 5000m. It can be realized by managing with.
  • the control unit 4010 of the management server 4000 controls the communication unit 4200 to transmit at least a part of the data received in step S11 toward the remote terminal 5000m selected in step S13.
  • the transmitted data includes the background information input in step S1, at least one of the front images started to be acquired in step S2, and the three-dimensional image formed in step S5. Also, information indicating the report creation deadline date (for example, within 30 minutes) may be transmitted to the remote terminal 5000m.
  • a plurality of cross-sectional images acquired in step S4 are transmitted to the remote terminal 5000m instead of the 3D image.
  • the communication unit 5200 of the remote terminal 5000m receives the data transmitted by the management server 4000 in step S14.
  • the control unit 5010 stores the received data in the storage unit described above.
  • the user of the remote terminal 5000m (for example, a doctor, an optometer list, etc.) starts interpretation at a desired timing (S22: Yes).
  • the display control unit 5011 displays the front image included in the data received in step S21 on the display device 6000m.
  • the display mode of the front image may be a moving image display or a still image display. It is possible to perform operations on the displayed front image. For example, it is possible to change the orientation and display magnification of the front image.
  • the user can specify a partial area of the displayed front image using the operation unit 5300.
  • the above-described reference image or wide area image may be used.
  • the partial area may be specified automatically. For example, it is possible to designate a corneal surface region, a corneal back region, a crystalline region, a vitreous region, and the like. In this case, the specified area can be analyzed by the analysis unit 5130.
  • the rendering unit 5120 renders a three-dimensional image based on the partial area specified in step S24. Thereby, a rendering image representing a partial region designated by the user (that is, an image of a region of interest that the user is paying attention to) is obtained.
  • the display control unit 5011 displays the rendering image acquired in step S25 on the display device 6000m.
  • the display control unit 5011 can cause the display device 6000 to display position information indicating the position of the rendering image.
  • This position information may be, for example, information indicating the position or range of the partial area specified in step S24, or information indicating the position or range of the rendered image formed in step S25.
  • the position information may be displayed together with, for example, the front image whose display has been started in step S23, the reference image or the wide area image described above, or the eye schema. Typically, such an image or an image showing a position or range in a schema can be displayed as position information.
  • the control unit 5010 of the remote terminal 5000m controls the communication unit 5200 to transmit the report created in step S28 toward the management server 4000.
  • the control unit 4010 stores the report received in step S31 in a storage device such as a hard disk drive or a solid state drive, or an external database.
  • the report is stored so as to be searchable based on, for example, a subject ID or a facility ID.
  • the control unit 4010 searches for a facility where the anterior segment imaging of the subject is performed by referring to the search ID, for example. Thereby, the transmission destination (for example, network address) of the report received in step S31 is specified.
  • the control unit 4010 of the management server 4000 controls the communication unit 4200 to transmit the report received in step S31 toward the facility searched in step S33.
  • the report is transmitted to the terminal 3000-n installed in the found facility.
  • the terminal 3000-n displays the report received in step S41 on a display device (not shown).
  • the configuration for changing the focus position of the slit lamp microscope 1 is not limited to the focusing mechanisms 40 and 50 described above.
  • two or more imaging units two or more anterior segment cameras
  • two or more images of the eye to be examined are acquired, and these images are analyzed to obtain a focus position. It can be configured to determine (target position).
  • the slit lamp microscope of this example includes an imaging unit, a drive unit, and a focus control unit.
  • the imaging unit captures the eye to be examined and acquires a right image and a left image.
  • the drive unit drives the optical system including the imaging unit at least in the working distance direction.
  • the focusing control unit controls the driving unit to automatically perform a focusing operation on the eye to be examined based on the right image and the left image output from the imaging unit.
  • Ophthalmic system 1000, a slit lamp microscope and (1, ophthalmologic imaging apparatus 2000-i n), 3-dimensional image forming unit (image combining unit 120), the rendering portion (5120), display control Unit (5011), a report creation unit (report creation control unit 5012, operation unit 5300), and a report output unit (terminal 3000-n).
  • the slit lamp microscope includes a front image acquisition unit (anterior eye camera 70, observation photographing system 6) and an image collection unit (illumination system 8, observation photographing system 6, focusing mechanisms 40 and 50, moving mechanism 60). .
  • the front image acquisition unit acquires the front image by photographing the anterior eye part of the eye to be examined (E).
  • the image collecting unit captures a plurality of images (a plurality of cross-sectional images) by photographing the anterior segment with slit light.
  • the three-dimensional image forming unit forms a three-dimensional image based on a plurality of images collected by the image collecting unit of the slit lamp microscope.
  • the slit lamp microscope is provided with the three-dimensional image forming unit, but the three-dimensional image forming unit may be provided in another apparatus.
  • the rendering unit renders the 3D image formed by the 3D image forming unit to form a rendered image.
  • the rendering unit may include at least a rendering unit 5120 and may further include a partial region specifying unit 5110.
  • the display control unit causes the display unit (display device 6000m) to display the front image acquired by the front image acquisition unit and the rendering image formed by the rendering unit.
  • the display means may be provided in the same device (remote terminal 5000m) as the display control unit, or may be a peripheral device connected to the device provided with the display control unit.
  • the report creation unit includes a user interface (operation unit 5300) for creating a report regarding information (typically including a front image and a rendering image) displayed on the display means by the display control unit.
  • a user interface operation unit 5300 for creating a report regarding information (typically including a front image and a rendering image) displayed on the display means by the display control unit.
  • the report output unit outputs the report created by the report creation unit.
  • the terminal 3000-n displays the report, but the output mode of the report is not limited to display. For example, printing on a paper medium, transmission to another apparatus, recording on a recording medium, etc. It may be.
  • a three-dimensional image and a front image of the anterior eye part are acquired using a slit lamp microscope, and a report is created while arbitrarily rendering the three-dimensional image.
  • doctors and optometrists can create reports while observing a desired region of interest in the anterior segment while freely rendering a three-dimensional image acquired using a slit lamp microscope.
  • the ophthalmologic system of the present embodiment it is possible to provide an ophthalmologic telemedicine technique that can effectively use the slit lamp microscope.
  • the ophthalmic system of this embodiment includes a server (4000) connected to a slit lamp microscope via a communication path (1100) and an information processing apparatus (remote terminal 5000m) connected to the server via a communication path (1100). Including.
  • the server includes a storage unit (a storage device such as a hard disk drive or a solid state drive in the control unit 4010) and a communication unit (4200).
  • the storage unit stores a three-dimensional image and a front image associated with preset subject identification information (subject ID). Note that facility identification information (facility ID) can be further associated as in the present embodiment.
  • the communication unit transmits at least the three-dimensional image and the front image to the information processing apparatus.
  • the information processing apparatus includes a communication unit (5200), a rendering unit (5120), a display control unit (5011), and a report creation unit (report creation control unit 5012, operation unit 5300).
  • the communication unit of the information processing apparatus receives at least the three-dimensional image and the front image transmitted from the server. Furthermore, the communication unit of the information processing apparatus transmits the report created by the report creation unit to the server.
  • the server communication unit receives the report transmitted from the information processing apparatus. Further, the communication unit of the server transmits at least a part of the report to the facility where the slit lamp microscope that has photographed the eye to be examined is installed.
  • the report output unit is arranged in a facility in which a slit lamp microscope that has photographed the eye to be examined is installed. In this example, the report is transmitted to the terminal 3000-n in the facility where the slit lamp microscope 1 is installed. However, the report may be transmitted to the slit lamp microscope 1 or another device.
  • the rendering unit may be configured to specify at least one of the corneal surface region and the corneal back region in the three-dimensional image of the anterior segment.
  • This configuration makes it possible to easily observe and analyze the state of the cornea that is a typical site of interest in the anterior segment.
  • the rendering unit may be configured to specify at least a corneal surface region.
  • the ophthalmic system of the present embodiment may further include a first analysis unit (analysis unit 5130) that analyzes the specified corneal surface region to obtain a corneal curvature radius.
  • the report creation unit may be configured to create a report including at least one of the calculated corneal curvature radius and information based thereon (for example, a contact lens model number).
  • a corneal curvature radius that is a typical attention parameter in contact lens prescription can be easily obtained. Furthermore, it is possible to easily and quickly provide a report describing the corneal curvature radius.
  • the rendering unit may be configured to specify at least a corneal surface region.
  • the ophthalmologic system of this embodiment may further include a second analysis unit (analysis unit 5130).
  • the second analysis unit is configured to analyze the corneal surface region specified by the rendering unit to obtain a corneal curvature radius distribution, and to obtain a deviation distribution representing a deviation of the corneal curvature radius distribution from a preset standard distribution.
  • the report creation unit may be configured to create a report including at least one of the obtained deviation distribution and information based thereon.
  • information representing a corneal curvature radius distribution which is a typical attention parameter in contact lens prescription can be easily obtained. Furthermore, it is possible to easily and quickly provide a report in which information representing the corneal curvature radius distribution is described.
  • the display control unit may be configured to display the deviation distribution obtained by the second analysis unit on the display means.
  • the report creator creates a report while referring to the deviation distribution of the corneal curvature radius distribution in addition to the front image and the rendered image of the anterior segment of the eye to be examined. It becomes possible.
  • the ophthalmologic system of the present embodiment may further include a registration unit (5105) that performs registration between the front image and the three-dimensional image of the anterior segment.
  • a user interface can be used to designate a region of interest (for example, a cross section, a three-dimensional region, etc.) in the front image.
  • the rendering unit can specify a partial region of the three-dimensional image corresponding to the designated attention region based on the registration result. Further, the rendering unit can form a rendering image (for example, a slice image, a Scheinproof image, a volume rendering image, etc.) corresponding to the specified partial region.
  • the report creator can easily specify the attention site of the anterior eye part. That is, the report creator can easily specify a portion to which rendering is applied.
  • the display control unit can cause the display unit to display the rendered image and the front image corresponding to the partial area in the three-dimensional image specified by the rendering unit. Further, the display control unit can display an image representing an area corresponding to the rendering image on the front image.
  • the report creator can easily grasp which part in the front image is displayed as the rendered image.
  • the rendering unit can form a stereoscopic image from the three-dimensional image of the anterior segment.
  • the display control unit can display the formed stereoscopic image on the display means.
  • the report creator can observe the anterior segment three-dimensionally, and can perform detailed observation while arbitrarily manipulating the three-dimensional image.
  • the rendering unit can specify the crystalline region in the three-dimensional image of the anterior segment.
  • the ophthalmic system of the present embodiment may further include a third analysis unit (analysis unit 5130) that analyzes the specified lens region and obtains the turbidity distribution.
  • the report creation unit can create a report including at least one of the obtained turbidity distribution and information based thereon.
  • the lens opacity distribution which is a typical site of interest in the diagnosis of cataract eyes, can be easily obtained. Furthermore, it is possible to easily and quickly provide a report in which information representing the lens turbidity distribution is described.
  • the display control unit may be configured to display the turbidity distribution obtained by the third analysis unit on the display unit.
  • report creators can create a report while referring to the lens opacity distribution in addition to the front image and rendered image of the anterior segment of the eye to be examined. Become.
  • the image collection unit of the slit lamp microscope may include an illumination system (8), a photographing system (observation photographing system 6), and a moving unit (moving mechanism 60).
  • the illumination system illuminates the eye to be examined with slit light.
  • the imaging system guides the return light of the slit light from the eye to be examined to the first imaging device (13).
  • the moving unit moves the illumination system and the imaging system.
  • the three-dimensional image forming unit may be configured to form a three-dimensional image based on a plurality of cross-sectional images acquired by the first imaging device while moving the illumination system and the imaging system.
  • the image collection unit of the slit lamp microscope may include a focus position changing unit (focusing mechanism 40, focusing mechanism 50).
  • the focus position changing unit changes at least one of the focus position of the illumination system and the focus position of the photographing system.
  • the three-dimensional image forming unit performs a plurality of movements acquired by the first imaging device while performing at least one movement of the illumination system and the imaging system and changing at least one of the focus position of the illumination system and the focus position of the imaging system.
  • a three-dimensional image can be formed based on the cross-sectional image.
  • the ophthalmic system may further include an operation mode designating unit for designating an operation mode of the slit lamp microscope.
  • the operation mode designation unit may include, for example, the operation unit 5300 of the remote terminal 5000m, the operation unit 140 of the slit lamp microscope 1, the terminal 3000-n, or another device.
  • the slit lamp microscope may include a control unit (101).
  • the control unit of the slit lamp microscope controls a plurality of cross-sectional images by controlling the illumination system, the imaging system, the moving unit, and the focus position changing unit in a coordinated manner.
  • the first imaging device may be configured to acquire.
  • the front image acquisition unit may include a second imaging device (anterior eye camera 70) different from the first imaging device provided in the image collection unit.
  • the anterior segment can be imaged from a certain position. It becomes possible.
  • the front image acquisition unit may be configured to acquire a front image of the anterior segment using the first imaging device provided in the image collection unit.
  • the front image is typically acquired at a timing different from the scan by the image collection unit.
  • the second imaging device of the front image acquisition unit can perform moving image shooting of the anterior segment.
  • the ophthalmologic information processing apparatus includes a communication unit (5200), a rendering unit (5120), a display control unit (5011), a report creation unit (report creation control unit 5012, an operation unit). 5300).
  • the communication unit of the ophthalmologic information-processing apparatus a slit lamp microscope communication path 3-dimensional image and a front image obtained by photographing the anterior segment of the eye (1, ophthalmologic imaging apparatus 2000-i n) and (1100) Accept through.
  • the rendering unit of the ophthalmologic information processing apparatus renders the three-dimensional image received by the communication unit to form a rendered image.
  • the display control unit of the ophthalmologic information processing apparatus causes the display means (display device 6000m) to display the front image received by the communication unit and the rendering image formed by the rendering unit.
  • the report creation unit includes a user interface (operation unit 5300) for creating a report related to information displayed by the display control unit.
  • the communication unit of the ophthalmologic information processing apparatus transmits the created report.
  • the final transmission destination of the report is the facility where the subject eye was photographed.
  • an ophthalmologic information processing apparatus it is possible to provide an ophthalmologic telemedicine technique that can effectively use a slit lamp microscope, as in the ophthalmologic system of the present embodiment.
  • the program is configured to cause a computer to execute the following steps: receiving a three-dimensional image and a front image acquired by photographing the anterior segment of the eye to be examined with a slit lamp microscope via a communication path; Rendering a received three-dimensional image to form a rendered image; displaying a received front image and the rendered image formed; receiving a user input; and reporting a report on the displayed information Create based on user input; send report.
  • This non-temporary recording medium may be in any form, and examples thereof include a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Abstract

実施形態の眼科システムは、スリットランプ顕微鏡、3次元画像形成部、レンダリング部、表示制御部、レポート作成部、及びレポート出力部を含む。スリットランプ顕微鏡は、被検眼の前眼部を撮影して正面画像を取得する正面画像取得部と、スリット光で前眼部を撮影して複数の画像を収集する画像収集部とを含む。3次元画像形成部は、複数の画像に基づいて3次元画像を形成する。レンダリング部は、3次元画像をレンダリングしてレンダリング画像を形成する。表示制御部は、正面画像とレンダリング画像とを表示手段に表示させる。レポート作成部は、表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイスを含む。レポート出力部は、作成されたレポートを出力する。

Description

眼科システム、眼科情報処理装置、プログラム、及び記録媒体
 本発明は、眼科システム、眼科情報処理装置、プログラム、及び記録媒体に関する。
 眼科分野において画像診断は重要な位置を占める。画像診断では、各種の眼科撮影装置が用いられる。眼科撮影装置には、スリットランプ顕微鏡、眼底カメラ、走査型レーザー検眼鏡(SLO)、光干渉断層計(OCT)などがある。また、レフラクトメータ、ケラトメータ、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、マイクロペリメータなどの各種の眼科撮影装置にも、前眼部や眼底を撮影する機能が搭載されている。
 これら様々な眼科装置のうち最も広く且つ頻繁に使用される装置の一つがスリットランプ顕微鏡である。スリットランプ顕微鏡は、スリット光で被検眼を照明し、照明された断面を側方から顕微鏡で観察したり撮影したりするための眼科装置である。角膜や水晶体など前眼部の診断には、一般的にスリットランプ顕微鏡が用いられる。例えば、医師は、スリット光による照明野やフォーカス位置を移動させつつ診断部位全体を観察して異常の有無を判断する。また、コンタクトレンズのフィッティング状態の確認など、視力補正器具の処方において、スリットランプ顕微鏡が用いられることもある。
 ところで、近年の情報通信技術の進歩を受けて、遠隔医療技術に関する研究開発が発展を見せている。遠隔医療とは、インターネット等の情報技術を利用して、遠隔地に居る患者に対して診療を行う行為である。特許文献3、4には医療装置を遠隔地から操作するための技術が開示されており、特に特許文献4にはスリットランプ顕微鏡を遠隔地から操作するための技術が開示されている。
特開2016-159073号公報 特開2016-179004号公報 特開2000-116732号公報 特開2008-284273号公報
 本発明の目的は、スリットランプ顕微鏡を効果的に利用することが可能な眼科遠隔医療技術を提供することにある。
 例示的な実施形態の第1の態様は、被検眼の前眼部を撮影して正面画像を取得する正面画像取得部と、スリット光で前記前眼部を撮影して複数の画像を収集する画像収集部とを含むスリットランプ顕微鏡と、前記複数の画像に基づいて3次元画像を形成する3次元画像形成部と、前記3次元画像をレンダリングしてレンダリング画像を形成するレンダリング部と、前記正面画像と前記レンダリング画像とを表示手段に表示させる表示制御部と、前記表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイスを含むレポート作成部と、前記レポートを出力するレポート出力部とを含む、眼科システムである。
 例示的な実施形態の第2の態様は、第1の態様の眼科システムであって、通信路を介して前記スリットランプ顕微鏡に接続されたサーバと、通信路を介して前記サーバに接続された情報処理装置とを含む。前記サーバは、予め設定された被検者識別情報に関連付けられた前記3次元画像と前記正面画像とを記憶する記憶部と、少なくとも前記3次元画像と前記正面画像とを前記情報処理装置に送信する通信部とを含む。前記情報処理装置は、前記サーバから送信された少なくとも前記3次元画像及び前記正面画像を受信する通信部と、前記レンダリング部、前記表示制御部、及び前記レポート作成部とを含む。前記情報処理装置の前記通信部は、前記レポート作成部により作成された前記レポートを前記サーバに向けて送信する。前記サーバの前記通信部は、前記情報処理装置から送信された前記レポートを受信し、且つ、前記レポートの少なくとも一部を前記スリットランプ顕微鏡が設置された施設に向けて送信する。前記レポート出力部は、前記スリットランプ顕微鏡が設置された前記施設に配置されている。
 例示的な実施形態の第3の態様は、第1又は第2の態様の眼科システムであって、前記レンダリング部は、前記3次元画像中の角膜表面領域及び角膜裏面領域の少なくとも一方を特定する。
 例示的な実施形態の第4の態様は、第3の態様の眼科システムであって、前記レンダリング部は、少なくとも前記角膜表面領域を特定し、前記角膜表面領域を解析して角膜曲率半径を求める第1解析部を更に含み、前記レポート作成部は、前記角膜曲率半径及びこれに基づく情報の少なくとも一方を含むレポートを作成する。
 例示的な実施形態の第5の態様は、第3の態様の眼科システムであって、前記レンダリング部は、少なくとも前記角膜表面領域を特定し、前記角膜表面領域を解析して角膜曲率半径分布を求め、予め設定された標準分布からの前記角膜曲率半径分布の偏差を表す偏差分布を求める第2解析部を更に含み、前記レポート作成部は、前記偏差分布及びこれに基づく情報の少なくとも一方を含むレポートを作成する。
 例示的な実施形態の第6の態様は、第5の態様の眼科システムであって、前記表示制御部は、前記偏差分布を前記表示手段に表示させる。
 例示的な実施形態の第7の態様は、第1~第6の態様のいずれかの眼科システムであって、前記正面画像と前記3次元画像との間のレジストレーションを行うレジストレーション部を更に含み、前記ユーザーインターフェイスは、前記正面画像中の注目領域を指定するために使用され、前記レンダリング部は、前記注目領域に対応する前記3次元画像の部分領域を前記レジストレーションの結果に基づき特定し、前記部分領域に対応するレンダリング画像を形成する。
 例示的な実施形態の第8の態様は第7の態様の眼科システムであって、前記表示制御部は、前記部分領域に対応する前記レンダリング画像と前記正面画像とを前記表示手段に表示させ、且つ、前記レンダリング画像に対応する領域を表す画像を前記正面画像上に表示させる。
 例示的な実施形態の第9の態様は、第1~第8の態様のいずれかの眼科システムであって、前記レンダリング部は、前記3次元画像から立体画像を形成し、前記表示制御部は、前記立体画像を前記表示手段に表示させ、前記ユーザーインターフェイスは、前記表示手段に表示されている前記立体画像を操作するために使用される。
 例示的な実施形態の第10の態様は、第1~第9の態様のいずれかの眼科システムであって、前記レンダリング部は、前記3次元画像中の水晶体領域を特定し、前記水晶体領域を解析して混濁分布を求める第3解析部を更に含み、前記レポート作成部は、前記混濁分布及びこれに基づく情報の少なくとも一方を含むレポートを作成する。
 例示的な実施形態の第11の態様は、第10の態様の眼科システムであって、前記表示制御部は、前記混濁分布を前記表示手段に表示させる。
 例示的な実施形態の第12の態様は、第1~第11の態様のいずれかの眼科システムであって、前記画像収集部は、前記被検眼をスリット光で照明する照明系と、前記被検眼からの前記スリット光の戻り光を第1撮像装置に導く撮影系と、前記照明系及び前記撮影系を移動する移動部とを含み、前記3次元画像形成部は、前記照明系及び前記撮影系を移動しつつ前記第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成する。
 例示的な実施形態の第13の態様は、第12の態様の眼科システムであって、前記画像収集部は、前記照明系のフォーカス位置及び前記撮影系のフォーカス位置の少なくとも一方を変更するためのフォーカス位置変更部を更に含み、前記3次元画像形成部は、前記照明系及び前記撮影系の少なくとも一方の移動と前記照明系のフォーカス位置及び前記撮影系のフォーカス位置の少なくとも一方の変更とを行いつつ前記第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成する。
 例示的な実施形態の第14の態様は、第13の態様の眼科システムであって、前記スリットランプ顕微鏡の動作モードを指定するための動作モード指定部を更に含み、前記スリットランプ顕微鏡は、制御部を更に含み、前記動作モード指定部により3次元撮影モードが指定されたとき、前記制御部は、前記照明系と前記撮影系と前記移動部と前記フォーカス位置変更部とを連係的に制御することにより前記複数の断面画像を前記第1撮像装置に取得させる。
 例示的な実施形態の第15の態様は、第12~第14の態様のいずれかの眼科システムであって、前記正面画像取得部は、前記第1撮像装置と異なる第2撮像装置を含む。
 例示的な実施形態の第16の態様は、第15の態様の眼科システムであって、前記第1撮像装置による前記複数の断面画像の収集と並行して、前記第2撮像装置は、前記前眼部の動画撮影を行う。
 例示的な実施形態の第17の態様は、スリットランプ顕微鏡で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路を介して受け付ける通信部と、前記3次元画像をレンダリングしてレンダリング画像を形成するレンダリング部と、前記正面画像と前記レンダリング画像とを表示手段に表示させる表示制御部と、前記表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイスを含むレポート作成部とを含み、前記通信部は、前記レポートを送信することを特徴とする眼科情報処理装置である。
 例示的な実施形態の第18の態様は、スリットランプ顕微鏡で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路を介して受け付けるステップと、前記3次元画像をレンダリングしてレンダリング画像を形成するステップと、前記正面画像と前記レンダリング画像とを表示するステップと、ユーザーからの入力を受け付けるステップと、表示された情報に関するレポートを前記ユーザーからの入力に基づき作成するステップと、前記レポートを送信するステップとを、コンピュータに実行させるプログラムである。
 例示的な実施形態の第19の態様は、第18の態様のプログラムを記録したコンピュータ可読な非一時的記録媒体である。
 実施形態によれば、スリットランプ顕微鏡を効果的に利用することが可能な眼科遠隔医療技術を提供することができる。
例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの動作の一例を説明するための概略図である。 例示的な実施形態に係る眼科システムの動作の一例を説明するための概略図である。 例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの構成の一例を表す概略図である。 例示的な実施形態に係る眼科システムの使用形態の一例を表すフローチャートである。 例示的な実施形態に係る眼科システムの使用形態の一例を表すフローチャートである。 例示的な実施形態に係る眼科システムの使用形態の一例を表すフローチャートである。 例示的な実施形態に係る眼科システムの使用形態の一例を表すフローチャートである。 例示的な実施形態に係る眼科システムの使用形態の一例を表すフローチャートである。
 例示的な実施形態に係る眼科システム、眼科情報処理装置、プログラム、及び記録媒体について、図面を参照しながら詳細に説明する。なお、引用文献に開示された事項などの任意の公知技術を実施形態に組み合わせることができる。
 実施形態の眼科システムは、例えば、各種の施設に設置された眼科撮影装置や、可搬型の眼科撮影装置を用いた遠隔医療に用いられる。実施形態に係る遠隔医療では、少なくとも、眼科撮影装置により取得された医用画像の読影を、この眼科撮影装置が設置された施設から離れた遠隔地において行う者が行う。この読影者は、典型的には、医師やオプトメトリストなどの専門家である。読影者は、読影を行うことで被検眼に関するレポートを作成する。実施形態に係る遠隔医療において、眼科撮影装置が設置された施設にて検査をアシストする者(補助者)が関与してもよい。
 眼科撮影装置が設置される施設の例として、眼鏡店、医療機関、健康診断会場、検診会場、患者の自宅、福祉施設、公共施設、検診車などがある。
 眼科撮影装置は、被検眼の撮影に用いられる任意の装置であってよく、少なくともスリットランプ顕微鏡としての機能を有する。眼科システムに含まれる複数の眼科撮影装置のいずれかは、スリットランプ顕微鏡と異なる撮影機能(例えば、眼底カメラ、SLO、OCTなどの眼科モダリティ)を含んでいてもよい。更に、眼科撮影装置は、測定データや撮影画像を解析するためのアプリケーションを備えていてもよい。
 実施形態の眼科システムは、被検眼の特性を測定するための眼科測定装置を更に含んでいてもよい。眼科測定装置の例として、視力検査装置(視標呈示装置、フォロプタ等)、眼屈折検査装置(レフラクトメータ、ケラトメータ等)、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータなどがある。
〈眼科システム〉
 実施形態に係る眼科システムの構成の例を説明する。図1に例示された眼科システム1000は、眼科撮影が行われるN個の施設(第1施設~第N施設)のそれぞれと、管理サーバ4000と、遠隔端末5000mとを結ぶ通信路(通信回線)1100を利用して構築されている。
 各施設(第n施設:n=1~N、Nは1以上の整数)には、眼科撮影装置2000-i(i=1~K、Kは1以上の整数)が設置されている。つまり、各施設(第n施設)には、1以上の眼科撮影装置2000-iが設置されている。眼科撮影装置2000-iは、眼科システム1000の一部を構成する。なお、眼科以外の検査を実施可能な検査装置が眼科システム1000に含まれていてもよい。
 本例の眼科撮影装置2000-iは、被検眼の撮影を実施する「撮影装置」としての機能と、各種データ処理や外部装置との通信を行う「コンピュータ」としての機能の双方を備えている。他の例において、撮影装置とコンピュータとを別々に設けることが可能である。この場合、撮影装置とコンピュータとは互いに通信可能に構成されてよい。更に、撮影装置の数とコンピュータの数とはそれぞれ任意であり、例えば単一のコンピュータと複数の撮影装置とを設けることができる。
 更に、各施設(第n施設)には、補助者や被検者により使用される情報処理装置(端末3000-n)が設置されている。端末3000-nは、当該施設において使用されるコンピュータであり、例えば、タブレット端末やスマートフォン等のモバイル端末、当該施設に設置されたサーバなどであってよい。更に、端末3000-nは、無線型イヤフォン等のウェアラブルデバイスを含んでいてもよい。なお、端末3000-nは、当該施設においてその機能を使用可能なコンピュータであれば十分であり、例えば、当該施設の外に設置されたコンピュータ(クラウドサーバ等)であってもよい。
 眼科撮影装置2000-iと端末3000-nとは、第n施設内に構築されたネットワーク(施設内LAN等)や、広域ネットワーク(インターネット等)や、近距離通信技術を利用して通信を行えるように構成されてよい。
 眼科撮影装置2000-iは、サーバ等の通信機器としての機能を備えていてよい。この場合、眼科撮影装置2000-iと端末3000-nとが直接に通信を行うように構成することができる。これにより、管理サーバ4000と端末3000-nとの間の通信を眼科撮影装置2000-iを介して行うことができるので、端末3000-nと管理サーバ4000との間で通信を行う機能を設ける必要がなくなる。
 管理サーバ4000は、第1~第N施設のいずれとも異なる施設に設置され、例えば管理センタに設置されている。管理サーバ4000は、ネットワーク(LAN、広域ネットワーク等)を介して、遠隔端末5000m(m=1~M、Mは1以上の整数)と通信が可能である。更に、管理サーバ4000は、第1~第N施設に設置された眼科撮影装置2000-iの少なくとも一部と広域ネットワークを介して通信が可能である。
 管理サーバ4000は、例えば、眼科撮影装置2000-iと遠隔端末5000mとの間の通信を中継する機能と、この通信の内容を記録する機能と、眼科撮影装置2000-iにより取得されたデータや情報を記憶する機能と、遠隔端末5000mにより取得されたデータや情報を記憶する機能とを備える。また、管理サーバ4000は、データ処理機能を備えてもよい。例えば、管理サーバ4000は、眼科撮影装置2000-i(スリットランプ顕微鏡)により取得された複数の断面画像から3次元画像を形成する処理を実行するための3次元画像形成部(プロセッサ、コンピュータプログラムなどを含む)を含んでいてよい。
 遠隔端末5000mは、眼科撮影装置2000-iによって取得された被検眼の画像の読影とレポート作成とに使用可能なコンピュータを含む。
 本実施形態において、「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムやデータを読み出し実行することで、実施形態に係る機能を実現することができる。
〈眼科撮影装置の構成〉
 眼科撮影装置2000-iの構成について説明する。前述したように、眼科撮影装置2000-iはスリットランプ顕微鏡としての機能を有する。本例では、特に言及しない限り、眼科撮影装置2000-iはスリットランプ顕微鏡である。
 ここで、以下のように方向を表すことがある。スリットランプ顕微鏡の光学系が被検眼の正面(ニュートラル位置)に配置されているときに、光学系における最も被検眼側に位置するレンズ(対物レンズ)から被検眼に向かう方向を前方向(又は、深さ方向、奥行き方向、Z方向)とし、その逆方向を後方向(-Z方向)とする。また、Z方向に直交する水平方向を左右方向(又は、横方向、±X方向)とする。更に、Z方向とX方向の双方に直交する方向を上下方向(又は、縦方向、±Y方向)とする。XYZ座標系は、例えば右手系(又は、左手系)として定義される。
 また、スリットランプ顕微鏡の観察撮影系は少なくとも水平方向に回動可能であるので、観察撮影系の光軸(観察撮影光軸)に沿う方向である動径方向をr方向とし、回転方向をθ方向とする。同様に、スリットランプ顕微鏡の照明系は回動可能であるので、照明系の光軸(照明光軸)に沿う方向である動径方向をr方向とし、回転方向をθ方向とする。例えば、動径方向の正方向は、対物レンズから被検眼に向かう方向であり、回転方向の正方向は、上方から見たときの反時計回り方向である。回転方向は、例えば、Z方向を基準として定義される(つまり、Z方向が回転角度0度として定義される)。観察撮影系がニュートラル位置に配置されているとき(つまり、θ=0度のとき)、r方向はZ方向に一致する。同様に、照明系がニュートラル位置に配置されているとき(つまり、θ=0度のとき)、r方向はZ方向に一致する。照明系及び観察撮影系の少なくとも一方は、上下方向に回動可能であってもよい。この場合においても動径方向や回転方向が同様に定義される。
 例示的なスリットランプ顕微鏡の外観構成を図2に示す。スリットランプ顕微鏡1には、コンピュータ100が接続されている。コンピュータ100は、各種の制御処理や演算処理を行う。顕微鏡本体(光学系等を格納する筐体)とは別にコンピュータ100を設ける代わりに、顕微鏡本体に同様のコンピュータを搭載した構成を適用することも可能である。コンピュータ100の少なくとも一部と、前述した端末3000-nの少なくとも一部とが共通であってもよい。
 スリットランプ顕微鏡1はテーブル2上に載置される。基台4は、例えば、移動機構部3を介して3次元的に移動可能に構成されている。基台4は、操作ハンドル5を傾倒操作することにより移動される。或いは、移動機構部3は、アクチュエータを含む。
 基台4の上面には、観察撮影系6及び照明系8を支持する支持部15が設けられている。支持部15には、観察撮影系6を支持する支持アーム16が左右方向に回動可能に取り付けられている。支持アーム16の上部には、照明系8を支持する支持アーム17が左右方向に回動可能に取り付けられている。支持アーム16及び17は、それぞれ独立に且つ互いに同軸で回動可能とされている。
 観察撮影系6は、支持アーム16を回動させることで移動される。照明系8は、支持アーム17を回動させることで移動される。支持アーム16及び17のそれぞれは、電気的な機構によって回動される。移動機構部3には、支持アーム16を回動させるための機構と、支持アーム17を回動させるための機構とが設けられている。なお、支持アーム16を手動で回動させることによって観察撮影系6を移動することもできる。同様に、支持アーム17を手動で回動させることによって照明系8を移動することもできる。
 照明系8は、被検眼Eに照明光を照射する。前述のように、照明系8を左右方向に回動することができる。更に、照明系8を上下方向に回動できるように構成されてもよい。つまり、照明系8の仰角や俯角を変更できるように構成されていてもよい。このような照明系8のスイング動作により、被検眼Eに対する照明光の投射方向が変更される。
 観察撮影系6は、被検眼Eに投射された照明光の戻り光を案内する左右一対の光学系を有する。この光学系は鏡筒本体9内に収納されている。鏡筒本体9の終端は接眼部9aである。検者は接眼部9aをのぞき込むことで被検眼Eを観察する。前述のように、支持アーム16を回動させることにより鏡筒本体9を左右方向に回動させることができる。更に、観察撮影系6を上下方向に回動できるように構成されてもよい。つまり、観察撮影系6の仰角や俯角を変更できるように構成されていてもよい。このような観察撮影系6のスイング動作により、被検眼Eを撮影する方向を変更することができる。
 鏡筒本体9に対峙する位置には顎受け台10が配置されている。顎受け台10には、被検者の顔を安定配置させるための顎受部10aと額当て10bが設けられている。
 鏡筒本体9の側面には、倍率を変更するための倍率操作ノブ11が配置されている。更に、鏡筒本体9には、被検眼Eを撮影するための撮像装置13が接続されている。撮像装置13は撮像素子を含む。撮像素子は、光を検出して画像信号(電気信号)を出力する光電変換素子である。画像信号はコンピュータ100に入力される。撮像素子としては、例えば、CCD(Charge Coupled Device)イメージセンサ、又は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサが用いられる。
 照明系8の下方位置には、照明系8から出力される照明光束を被検眼Eに向けて反射するミラー12が配置されている。
 図2では省略されているが、ミラー12の近傍(例えば、ミラー12の下方位置又は上方位置)には、被検眼Eの前眼部を正面から撮影するための前眼部カメラ70が設けられている(図3及び図4を参照)。前眼部カメラ70は、固定的に配置されているか、或いは、観察撮影系6や照明系8の移動とは独立に移動可能とされている。前眼部カメラ70は、例えば、動画撮影が可能なビデオカメラである。前眼部カメラ70は1以上の任意の個数設けられてよい。
 前眼部カメラ70で撮影を行うための照明光を前眼部に投射する前眼部照明光源が設けられていてもよい。前眼部照明光源は、例えば、赤外光源又は可視光源であってよい。前眼部照明光源は、例えば、前眼部カメラ70の近傍(例えば、前眼部カメラ70の下方位置、上方位置、又は側方位置)に配置されている。前眼部照明光源は1以上の任意の個数設けられてよい。
〈光学系の構成〉
 スリットランプ顕微鏡1の光学系の構成例を図3に示す。前述したように、スリットランプ顕微鏡1は、観察撮影系6と照明系8とを備えている。
〈観察撮影系6〉
 観察撮影系6は左右一対の光学系を備えている。左右の光学系は、ほぼ同様の構成を有する。検者は、この左右の光学系により被検眼Eを双眼で観察することができる。なお、図3には、観察撮影系6の左右の光学系の一方のみが示されている。観察撮影系6は、左右の光学系の一方のみを備えていてもよい。符号O1は、観察撮影系6の光軸を示す。
 観察撮影系6の左右の光学系のそれぞれは、対物レンズ31、変倍光学系32、ビームスプリッタ34、結像レンズ35、プリズム36、及び接眼レンズ37を含む。ここで、ビームスプリッタ34は、左右の光学系の一方又は双方に設けられる。接眼レンズ37は、接眼部9a内に設けられている。符号Pは、接眼レンズ37に導かれる光の結像位置を示す。符号Ecは被検眼Eの角膜を示す。符号Eoは検者眼を示す。
 変倍光学系32は、複数(例えば3枚)の変倍レンズ32a、32b、32cを含む。本実施形態では、観察撮影系6の光路に対して選択的に挿入可能な複数の変倍レンズ群が設けられている。これら変倍レンズ群は、それぞれ異なる倍率に対応する。観察撮影系6の光路に配置された変倍レンズ群が変倍光学系32として用いられる。このような変倍レンズ群の選択的な挿入により、被検眼Eの観察像や撮影画像の倍率(画角)を変更することができる。倍率の変更、つまり観察撮影系6の光路に配置される変倍レンズ群の切り替えは、倍率操作ノブ11を操作することにより行われる。また、図示しないスイッチ等を用いて電動で倍率を変更することもできる。
 ビームスプリッタ34は、光軸O1に沿って進む光の光路を、光軸O1の延長上に位置する光路と、光軸O1に対して直交する光路とに分割する。光軸O1の延長上に位置する光路に入射した光は、結像レンズ35、プリズム36及び接眼レンズ37を介して検者眼Eoに導かれる。プリズム36は、光の進行方向を上方に平行移動させる。
 一方、光軸O1に対して直交する光路に入射した光は、集光レンズ41及びミラー42を介して、撮像装置13の撮像素子43に導かれる。すなわち、観察撮影系6は、被検眼Eからの戻り光を撮像装置13に導く。撮像素子43は、この戻り光を検出して画像信号GSを生成する。
 観察撮影系6は、そのフォーカス位置を変更するための合焦機構40を含む。合焦機構40は、光軸O1に沿って対物レンズ31を移動させる。例えば、合焦機構40は、対物レンズ31を保持する保持部材と、この保持部材を光軸O1の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。
 対物レンズ31の移動は、自動及び/又は手動で行われる。自動で対物レンズ31を移動する場合、例えば、コンピュータ100は、公知のフォーカス調整手法(例えば、位相差検出方式、コントラスト検出方式など)を用いて、被検眼Eからの戻り光に基づきフォーカス位置を求めることができる。更に、コンピュータ100は、求められたフォーカス位置まで対物レンズ31を光軸O1に沿って移動するようにアクチュエータを制御することができる。一方、手動で対物レンズ31を移動する場合、ユーザーによる操作に応じてアクチュエータが対物レンズ31を光軸O1に沿って移動させる。
 なお、観察撮影系6は、対物レンズ31と撮像素子43との間の光軸O1上の位置に配置された第1合焦レンズを含んでもよい。この場合、合焦機構40は、第1合焦レンズを光軸O1に沿って移動させることによって観察撮影系6のフォーカス位置を変更する。例えば、合焦機構40は、第1合焦レンズを保持する保持部材と、この保持部材を光軸O1の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。対物レンズ31を移動させる場合と同様に、合焦機構40による第1合焦レンズの移動は、自動又は手動で行われる。
 また、観察撮影系6の全体(又は一部)が光軸O1に沿って移動可能に構成されていてもよい。この場合、合焦機構40は、観察撮影系6の全体を光軸O1に沿って移動させることによって、観察撮影系6のフォーカス位置を変更する。例えば、合焦機構40は、観察撮影系6が搭載された可動ステージと、この可動ステージを光軸O1の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。対物レンズ31を移動させる場合と同様に、合焦機構40による観察撮影系6の移動は、自動又は手動で行われる。
〈照明系8〉
 照明系8は、照明光源51、集光レンズ52、スリット形成部53、及び対物レンズ54を含む。符号O2は、照明系8の光軸を示す。
 照明光源51は照明光を出力する。なお、照明系8に複数の光源を設けてもよい。例えば、定常光を出力する光源(例えば、ハロゲンランプ、発光ダイオード(LED)等)と、フラッシュ光を出力する光源(例えば、キセノンランプ、LED等)の双方を照明光源51として設けることができる。また、前眼部観察用の光源と後眼部観察用の光源とを別々に設けてもよい。例えば、照明光源51は、可視光を出力する可視光源を含む。照明光源51は、赤外光(例えば、中心波長が800nm~1000nmの光)を出力する赤外光源を含んでもよい。
 スリット形成部53は、スリット光を生成するために用いられる。スリット形成部53は、一対のスリット刃を有する。これらスリット刃の間隔(スリット幅)を変更することにより、生成されるスリット光の幅を変更することができる。
 照明系8は、スリット光のフォーカス位置を変更するための合焦機構50を含む。合焦機構50は、対物レンズ54を光軸O2に沿って移動させる。例えば、合焦機構50は、対物レンズ54を保持する保持部材と、この保持部材を光軸O1の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。
 対物レンズ54の移動は、自動及び/又は手動で行われる。自動で対物レンズ54を移動する場合、例えば、コンピュータ100は、被検眼Eからの戻り光に基づく像が描出された画像を解析することによってフォーカス位置を求めることができる。更に、コンピュータ100は、求められたフォーカス位置まで対物レンズ54を光軸O2に沿って移動するようにアクチュエータを制御することができる。一方、手動で対物レンズ54を移動する場合には、ユーザーによる操作に応じてアクチュエータが対物レンズ54を光軸O2に沿って移動させる。
 なお、照明系8は、対物レンズ54とスリット形成部53との間の光軸O2上の位置に配置された第2合焦レンズを含んでもよい。この場合、合焦機構50は、第2合焦レンズを光軸O2に沿って移動させることによって、スリット光のフォーカス位置を変更する。例えば、合焦機構50は、第2合焦レンズを保持する保持部材と、この保持部材を光軸O2の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。対物レンズ54を移動させる場合と同様に、合焦機構50による第2合焦レンズの移動は、自動又は手動で行われる。
 また、照明系8の全体(又は一部)が光軸O2に沿って移動可能に構成されていてもよい。この場合、合焦機構50は、照明系8の全体を光軸O2に沿って移動させることによって、スリット光のフォーカス位置を変更する。例えば、合焦機構50は、照明系8が搭載された可動ステージと、この可動ステージを光軸O2の方向に移動させるスライド機構と、駆動力を発生するアクチュエータと、この駆動力をスライド機構に伝達する部材とを含む。対物レンズ54を移動させる場合と同様に、合焦機構50による照明系8の移動は、自動又は手動で行われる。
 図3では図示が省略されているが、照明系8から出力される照明光束を被検眼Eに向けて反射するミラー12が光軸O2上に配置されている。典型的には、照明系8とミラー12とが一体的に回動するように構成されている。
 スリットランプ顕微鏡1は、照明系8及び観察撮影系6の被検眼Eに対する位置を変更しつつ被検眼Eを複数回撮影して複数の画像を取得することができる。換言すると、スリットランプ顕微鏡1は、照明系8及び観察撮影系6を移動しつつ被検眼Eを複数回撮影することで、被検眼Eの前眼部の複数の断面画像を取得することができる。被検眼Eを複数回撮影するための照明系8及び観察撮影系6を移動は、回動でもよいし、平行移動でもよい。
 このような制御により取得された複数の断面画像のそれぞれには、その取得位置(つまり、断面位置)を示す位置情報が関連付けられる。この位置情報は、例えば、次のいずれか1以上を含んでいてよい:照明系8の位置(回動位置、平行移動位置);観察撮影系6の位置(回動位置、平行移動位置);前眼部カメラ70により取得された前眼部の正面画像における断面の位置;これら位置のいずれか1以上に基づき求められた情報。
 照明系8の位置(つまり、位置及び/又は角度)や観察撮影系6の位置(位置及び/又は角度)は、例えば、エンコーダーなどを含む位置検出器によって検出することができる。或いは、照明系8の位置や観察撮影系6の位置は、照明系8や観察撮影系6を移動するための機構の制御を行うコンピュータ100によって認識可能である。また、被検眼Eの前眼部の正面画像における断面の位置は、例えば、前眼部カメラ70により取得された前眼部の正面画像と、上記の位置検出器により検出された位置とに基づいて求めることができる。詳細は後述するが、このような位置情報と複数の断面画像とに基づいて、前眼部の3次元画像を形成することができる。
 なお、照明系8の位置と観察撮影系6の位置とを変更しつつ行われる複数回の撮影は、照明系8及び観察撮影系6の少なくとも一方が移動しているときに行われてもよいし、照明系8及び観察撮影系6の少なくとも一方が停止しているときに行われてもよい。また、照明系8の移動は連続的でも断続的でもよいし、観察撮影系6の移動は連続的でも断続的でもよい。
 スリットランプ顕微鏡1は、被検眼Eに対するフォーカス位置を変更しつつ被検眼Eを複数回撮影して複数の画像を取得することができる。より具体的には、スリットランプ顕微鏡1は、観察撮影系6のフォーカス位置及び照明系8のフォーカス位置の少なくとも一方を変更しつつ被検眼Eを複数回撮影することで、被検眼Eの前眼部の複数の断面画像を取得することができる。
 このような制御により取得された複数の断面画像のそれぞれには、その取得位置(フォーカス位置)を示す位置情報が関連付けられる。この位置情報は、例えば、次のいずれかを含んでいてもよい:合焦機構40に対する制御内容;合焦機構50に対する制御内容;合焦機構40により移動される対象(例えば、対物レンズ31、第1合焦レンズ、又は観察撮影系6)の位置;合焦機構50により移動される対象(例えば、対物レンズ54、第2合焦レンズ、又は照明系8)の位置;これら情報(制御内容、位置)のいずれか1以上に基づき求められた情報。
 合焦機構40又は50に対する制御内容は、例えば、それを制御するコンピュータ100によって認識可能である。合焦機構40又は50により移動される対象の位置は、例えば、エンコーダーなどを含む位置検出器によって検出することができる。詳細は後述するが、このような制御内容及び/又は位置情報と複数の断面画像とに基づいて、前眼部の3次元画像を形成することができる。
 なお、フォーカス位置を変更しつつ行われる複数回の撮影は、フォーカス位置の変更と並行して行われてもよいし、フォーカス位置の移動が停止されているときに行われてもよい。また、フォーカス位置の変更は連続的でも断続的でもよい。
 上記した2つの制御を組み合わせることができる。例えば、スリットランプ顕微鏡1は、照明系8の位置、観察撮影系6の位置、照明系8のフォーカス位置、及び観察撮影系6のフォーカス位置を変更しつつ被検眼Eを複数回撮影することによって、複数の断面画像を取得することが可能である。このような制御により取得された複数の断面画像のそれぞれには、その取得位置(断面位置及びフォーカス位置)を示す位置情報が関連付けられる。
〈制御系の構成〉
 スリットランプ顕微鏡1の制御系について、図4~図6を参照しながら説明する。スリットランプ顕微鏡1の制御系の構成例を図4に示す。なお、制御系を構成する複数の要素の少なくとも一部がコンピュータ100に含まれていてもよい。
〈制御部101〉
 制御部101は、スリットランプ顕微鏡1の各部を制御する。例えば、制御部101は、観察撮影系6、照明系8、移動機構60、前眼部カメラ70、画像合成部120、表示部130、合焦位置検出部150、スキャン位置検出部160、通信部170などを制御する。
 移動機構60は、照明系8及び観察撮影系6を移動する。移動機構60は、例えば、移動機構部3と、支持アーム16及び17と、支持アーム16及び17を移動する機構とを含む。移動機構60は、照明系8と観察撮影系6とを互いに独立に移動することが可能であってよい。この独立的な移動は、例えば、照明系8の回動及び観察撮影系6の回動を少なくとも含む。また、この独立的な移動は、照明系8の平行移動及び観察撮影系6の平行移動の少なくとも一方を含んでいてよい。このような独立的な移動により、被検眼Eに対する照明系8の位置(照明位置、照明角度)を変更すること、及び、被検眼Eに対する観察撮影系6の位置(観察位置、観察角度、撮影位置、撮影角度)を変更することが可能となる。
 ここで、照明角度は、照明系8が所定の基準位置(ニュートラル位置)に配置されているときのその光軸(照明光軸)に対する角度として定義される。同様に、観察角度及び撮影角度は、例えば、観察撮影系6が所定の基準位置(ニュートラル位置)に配置されているときのその光軸(観察撮影光軸)に対する角度として定義される。照明角度の基準と観察角度及び撮影角度の基準とは同じであってもよいし、互いに異なってもよい。前述したように、本例では、観察角度及び撮影角度は、Z方向に対してr方向がなす角度θで表現され、照明角度は、Z方向に対してr方向がなす角度θで表現される。
 移動機構60は、照明系8と観察撮影系6とを一体的に移動することが可能であってよい。この一体的な移動は、例えば、平行移動及び回動の少なくとも一方を含む。この一体的な平行移動は、例えば、照明角度と撮影角度とを保持しつつ前眼部をスキャンするために適用可能である。また、この一体的な回動は、例えば、照明角度と撮影角度とを(連続的に又は段階的に)変化しつつ前眼部をスキャンするために適用可能である。
 観察撮影系6に関する制御としては、変倍光学系32の制御、撮像素子43の制御、合焦機構40の制御、観察撮影系6を移動させるための移動機構60の制御、フォーカス位置検出部150の制御、スキャン位置検出部160の制御などがある。変倍光学系32の制御としては、倍率操作ノブ11に対する操作内容を受けて被検眼Eの肉眼観察像や撮影画像の倍率を変更する制御などがある。撮像素子43の制御としては、撮像素子43の電荷蓄積時間、感度、フレームレート等を変更する制御や、撮像素子43により得られた画像信号GSを画像合成部120に送る制御などがある。合焦機構40の制御としては、合焦機構40による観察撮影系6のフォーカス位置を変更する制御などがある。移動機構60の制御としては、観察撮影系6を移動(回動、平行移動)する制御などがある。フォーカス位置検出部150の制御としては、フォーカス位置検出部150により検出された位置を取得し、取得された位置を画像合成部120に送る制御などがある。スキャン位置検出部160の制御としては、スキャン位置検出部160により検出された位置を取得し、取得された位置を画像合成部120に送る制御などがある。
 照明系8に関する制御としては、照明光源51の制御、スリット形成部53の制御、合焦機構50の制御、照明系8を移動させるための移動機構60の制御、フォーカス位置検出部150の制御、スキャン位置検出部160の制御などがある。照明光源51の制御としては、照明光源51の点灯/消灯の切り換え、照明光の光量を変更する制御などがある。スリット形成部53の制御としては、スリット幅を変更する制御、スリットを平行移動する制御、スリットを回転する制御などがある。合焦機構50の制御としては、合焦機構50によるスリット光のフォーカス位置(照明系8のフォーカス位置)を変更する制御などがある。移動機構60の制御としては、照明系8を移動(回動、平行移動)する制御などがある。フォーカス位置検出部150の制御としては、フォーカス位置検出部150により検出された位置を取得し、取得された位置を画像合成部120に送る制御などがある。スキャン位置検出部160の制御としては、スキャン位置検出部160により検出された位置を取得し、取得された位置を画像合成部120に送る制御などがある。
 制御部101は、合焦制御部101Aと、スキャン制御部101Bと、記憶部102とを含む。
 合焦制御部101Aは、観察撮影系6のフォーカス位置の制御と、照明系8のフォーカス位置の制御とを実行する
 図5を参照しつつ合焦制御部101Aの動作について説明する。図5は、被検眼Eの角膜Ecに対する観察撮影系6及び照明系8のフォーカス位置を模式的に表したものである。前述したように、符号31は観察撮影系6の対物レンズであり、符号54は照明系8の対物レンズである。符号Cfは、角膜Ecの前面を示し、符号Cbは角膜Ecの後面を示す。符号Ccは、角膜Ec(角膜前面Cf)の曲率中心位置を示す。例えば、観察撮影系6及び照明系8の回動軸は、曲率中心位置Ccに実質的に一致される。
 合焦制御部101Aは、被検眼Eの関心部位に対する深さ方向(つまり、回動動作における動径方向)のスキャン(rスキャン)を制御する。合焦制御部101Aは、合焦機構40と合焦機構50とを連係的に制御することができる。例えば、合焦制御部101Aは、合焦機構40及び合焦機構50を制御して、関心部位の深さ方向(つまり、被検眼Eにおける奥行き方向)の位置PS1、PS2、PS3の順番に観察撮影系6のフォーカス位置及び照明系8のフォーカス位置を変更する。観察撮影系6は、各フォーカス位置に対応した被写界深度で被検眼Eを撮影することができる。例えば、観察撮影系6は、位置PS1に対応した被写界深度PC1における被検眼Eの画像を取得することができる。
 合焦制御部101Aは、撮像装置13に画像を取得させる制御と上記の連係的制御とを交互に実行することができる。それにより、合焦制御部101Aは、被検眼Eの関心部位の深さ方向について複数の断面画像の取得を制御することができる。例えば、合焦制御部101Aは、位置PS1を含む断面の画像と、位置PS2を含む断面の画像と、位置PS3を含む断面の画像とを順次に取得するように制御を行うことができる。
 スキャン制御部101Bは、被検眼Eの関心部位に対するスキャン位置を水平方向(深さ方向に略直交する方向)に移動するための制御を行う。なお、詳細な説明は省略するが、水平方向と深さ方向との双方に略直交する上下方向にスキャン位置を移動するための制御についても、同じ要領で実行することができる。
 図6を参照しつつスキャン制御部101Bの動作について説明する。図6は、角膜Ecに対する観察撮影系6及び照明系8のフォーカス位置を模式的に表したものである。なお、図6において、図5と同様の要素及び箇所には同一符号を付し、適宜説明を省略する。
 スキャン制御部101Bは、被検眼Eの関心部位に対する水平方向(つまり、回動動作における偏角方向)のスキャン(θスキャン)を制御する。スキャン制御部101Bは、例えば、照明系8の回動と観察撮影系6の回動とを連係させるように移動機構60を制御する。例えば、スキャン制御部101Bは、水平方向のスキャン位置PS1、PS11、PS12の順番に観察撮影系6及び照明系8を移動させる。
 スキャン制御部101Bは、撮像装置13に画像を取得させる制御と移動機構60の制御とを交互に実行することができる。それにより、スキャン制御部101Bは、被検眼Eの関心部位において水平方向に配列された複数の断面画像を取得するための制御を行うことができる。例えば、スキャン制御部101Bは、位置PS1を含む断面の画像と、位置PS11を含む断面の画像と、位置PS12を含む断面の画像とを順次に取得するように制御を行うことができる。
 水平方向の位置PS1、PS11、PS12のそれぞれにおいて、合焦制御部101Aは、観察撮影系6のフォーカス位置及び照明系8のフォーカス位置を深さ方向に変更することができる。それにより、位置PS1、PS2、PS3、PS11、PS21、PS31、PS12、PS22、PS32のそれぞれについて断面画像を取得することができる。
 図6では、光学系の回動によるスキャンについて説明したが、光学系の平行移動によるスキャンを行うことができる。例えば、水晶体の前嚢を撮影するために、撮影角度θ=0度の位置(ニュートラル位置)に観察撮影系6を配置し、且つ、照明角度θ≠0度の位置に照明系8を配置した状態で、観察撮影系6と照明系8とを一体的に平行移動することで、水晶体の前嚢を好適に画像化することができる。また、水晶体の後嚢及び前嚢を撮影する場合、撮影角度θ=0度の位置に観察撮影系6を配置し、且つ、前嚢撮影の場合よりも小さい角度に照明角度θを設定した状態で、観察撮影系6と照明系8とを一体的に平行移動することで、水晶体の後嚢及び前嚢を好適に画像化することができる。
 スキャンを行わずに前眼部撮影を行うことも可能である。例えば、ニュートラル位置を挟んで反対方向に同じ角度だけ離れた位置に観察撮影系6と照明系8とを配置し(θ=-θ)、角膜内皮細胞を撮影することができる。この配置によって、スペキュラーマイクロスコープと同様の構成を実現することができる。
 光学系の移動(回動、平行移動)によるスキャン(つまり、複数の断面画像の収集)と並行して、前眼部カメラ70による前眼部の撮影を行うことができる。この前眼部撮影は、複数回の撮影であってよく、動画撮影であってもよい。これにより、スキャン中における前眼部の動きや変化を検出することや、トラッキングを行うことが可能になる。なお、スキャンが行われていないときに前眼部の撮影を行うことも可能である。
 前眼部カメラ70により取得された前眼部の正面画像とともに、スキャン位置(断面位置)を提示することができる。例えば、スキャン位置を表す画像を正面画像上に表示することができる。ここで、例えば、前眼部カメラ70の位置(既知)と、スキャン位置検出部160からの出力とに基づいて、正面画像とスキャン位置との間の相対位置を求めることが可能である。
 記憶部102は、各種のコンピュータプログラムやデータを記憶する。コンピュータプログラムには、所定の動作モードにしたがってスリットランプ顕微鏡1を動作させるための演算プログラムや制御プログラムが含まれる。データには、各種の検査において使用されるデータが含まれる。
 このようなデータの例として、スキャン情報がある。スキャン情報は、例えば、関心部位の複数のスキャン位置に観察撮影系6及び照明系8を移動させるための制御情報と、各スキャン位置について1以上の深さ方向の位置に観察撮影系6及び照明系8のフォーカス位置を変更するための制御情報とを含む。これら制御情報は、事前に記憶部102に保存される。制御部101は、記憶部102に記憶されたコンピュータプログラム及びスキャン情報を用いて、スキャン制御部101Bによる水平方向のスキャン位置を制御と、合焦制御部101Aによるフォーカス位置の制御とを、個別的に又は連係的に実行することができる。
 制御部101は、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ等を含む。ROMやハードディスクドライブ等の記憶装置には、制御プログラムがあらかじめ記憶されている。制御部101の動作は、制御プログラム等のソフトウェアと、プロセッサ等のハードウェアとが協働することによって実現される。制御部101は、スリットランプ顕微鏡1の本体(例えば基台4内)やコンピュータ100に配置される。
〈画像合成部120〉
 画像合成部120は、合焦制御部101A及び/又はスキャン制御部101Bが実行する上記制御にしたがって撮像装置13により取得された複数の断面画像を合成する。
 例えば、画像合成部120は、合焦機構40及び合焦機構50によりフォーカス位置を変更しつつ撮像装置13により取得された複数の断面画像を合成する。この場合、複数の断面画像は深さ方向に配列されている。換言すると、複数の断面画像がそれぞれ描写する複数の断面は、同一平面内に配置されている。このような複数の断面画像から構築される合成画像は、個々の断面画像よりも深い被写界深度の(換言すると、パンフォーカスの、又は、ディープフォーカスの)2次元断面画像である。
 画像合成部120は、断面が同一の平面内に配置されていない複数の(2次元)断面画像を合成することにより3次元画像を形成することができる。3次元画像とは、3次元座標系により画素の位置が定義された画像(画像データ)を意味する。
 3次元画像の例として、複数の断面画像のスタックデータがある。スタックデータは、複数のスキャン位置において得られた複数の断面画像を、スキャン位置の位置関係に基づいて3次元的に配置して得られる画像データである。より具体的に説明すると、スタックデータは、元々個別の2次元座標系により定義されていた複数の断面画像を、同じ3次元座標系により表現する(つまり、同じ3次元空間に埋め込む)ことにより得られる画像データである。
 合焦機構40及び合焦機構50によりフォーカス位置を変更しつつ撮像装置13により取得された複数の断面画像からスタックデータを形成するとき、これら断面画像のそれぞれをZ方向に沿う断面に投影することができる。例えば、照明角度θ≠0度で撮影された断面画像を、Z方向に沿う断面(例えば、XZ断面又はYZ断面)に投影することができる。これにより、互いに平行な複数の投影画像が得られる。各投影画像の位置は、対応する断面画像に基づき決定される。例えば、対応する断面画像の所定位置(例えば、中心位置)と投影画像の所定位置(例えば、中心位置)とが一致するように、投影画像の位置を決定することができる。このようにしてそれぞれの位置が決定された複数の投影画像を同じ3次元空間に埋め込むことで、スタックデータを形成することが可能である。
 3次元画像の他の例としてボリュームデータ(ボクセルデータとも呼ばれる)がある。ボリュームデータは、3次元的な画素であるボクセルが3次元的に配列された画像データである。ボリュームデータは、例えば、スタックデータに補間処理を施し、画素を3次元化(ボクセル化)することによって形成される。
 このような画像合成処理を実行するために、画像合成部120は、配列処理部121と合成処理部122とを含む。
 配列処理部121は、rスキャン、θスキャン(光学系の回動)、又はこれらの組み合わせにより取得された複数の断面画像の配列を、これら断面画像に関連付けられた位置情報(例えば、フォーカス位置、断面位置)に基づき特定し、特定された配列にしたがって複数の断面画像を配置することができる。或いは、配列処理部121は、rスキャン、θスキャン(光学系の回動)、又はこれらの組み合わせにより取得された複数の断面画像に基づく複数の投影画像の配列を、これら投影画像に関連付けられた位置情報(例えば、フォーカス位置、断面位置)に基づき特定し、特定された配列にしたがって複数の投影画像を配置することができる。
 また、配列処理部121は、rスキャンと光学系の平行移動との組み合わせにより取得された複数の断面画像の配列を、これら断面画像に関連付けられた位置情報(例えば、フォーカス位置、断面位置)に基づき特定し、特定された配列にしたがって複数の断面画像を配置する。或いは、配列処理部121は、rスキャンと光学系の平行移動との組み合わせにより取得された複数の断面画像に基づく複数の投影画像の配列を、これら投影画像に関連付けられた位置情報(例えば、フォーカス位置、断面位置)に基づき特定し、特定された配列にしたがって複数の投影画像を配置することができる。
 例えば、配列処理部121は、フォーカス位置検出部150により検出されたスリット光のフォーカス位置(例えば、前述した位置情報)を制御部101から受けて複数の断面画像(又は、複数の投影画像)を配列する。また、配列処理部121は、スキャン位置検出部160により検出された観察撮影系6及び照明系8の位置(例えば、前述した位置情報)を制御部101から受けて複数の断面画像(又は、複数の投影画像)を配列する。
 合成処理部122は、配列処理部121により配列された複数の断面画像を合成する。この画像合成処理は、例えば、スタックデータを形成する処理を含んでよく、ボリュームデータを形成する処理を更に含んでよい。
 このような一連の処理を実行することにより、画像合成部120は、被検眼Eの前眼部の複数の断面画像に基づく3次元画像や2次元画像を形成することができる。
 他の例において、画像合成部120は、前述した位置情報を用いることなく複数の断面画像を合成することができる。例えば、画像合成部120は、異なる2以上の断面画像において共通の部位を描出している画像領域(共通領域)を画像解析によって特定し、特定された共通領域が重なるようにこれら断面画像を貼り合わせることができる。このような画像解析が適用される場合、フォーカス位置検出部150やスキャン位置検出部160が設けられる必要はない。ただし、フォーカス位置検出部150やスキャン位置検出部160により得られた情報を「画像の位置の粗調整」に利用し、その後に画像解析による「画像の位置の微調整」を行うようにしてもよい。
 画像合成部120の機能の少なくとも一部が、スリットランプ顕微鏡1と異なる装置に設けられていてもよい。例えば、スリットランプ顕微鏡1との間で通信が可能なコンピュータに、画像合成部120の機能の少なくとも一部を設けることができる。その具体例として、スリットランプ顕微鏡1が設置されている施設に設けられたコンピュータ(例えば、端末3000-n、サーバなど)に、画像合成部120の機能の少なくとも一部を設けることができる。或いは、管理サーバ4000又はこれとの間で通信が可能なコンピュータに、画像合成部120の機能の少なくとも一部を設けることができる。他の例として、遠隔端末5000m又はこれとの間で通信が可能なコンピュータに、画像合成部120の機能の少なくとも一部を設けることができる。
〈フォーカス位置検出部150〉
 フォーカス位置検出部150は、例えば、観察撮影系6のフォーカス位置を検出する第1フォーカス位置検出部と、照明系8のフォーカス位置を検出する第2フォーカス位置検出部とを含む。第1フォーカス位置検出部及び/又は第2フォーカス位置検出部は、例えば、エンコーダーやポテンショメーターなどの位置センサーを含んでよい。
 或いは、第1フォーカス位置検出部は、合焦制御部101Aが観察撮影系6に対して実行した制御の内容(つまり、制御の履歴)に基づいて観察撮影系6のフォーカス位置を求めるプロセッサを含んでもよい。同様に、第2フォーカス位置検出部は、合焦制御部101Aが照明系8に対して実行した制御の内容(つまり、制御の履歴)に基づいて照明系8のフォーカス位置を求めるプロセッサを含んでもよい。
〈スキャン位置検出部160〉
 スキャン位置検出部160は、例えば、観察撮影系6の位置を検出する第1位置検出部と、照明系8の位置を検出する第2位置検出部とを含む。第1位置検出部及び/又は第2位置検出部は、例えば、基台4の位置を検出するための位置センサーと、支持アーム16及び17の位置を検出するための回動角度センサーとを含む。
 或いは、第1位置検出部は、スキャン制御部101Bが観察撮影系6に対して実行した制御の内容(つまり、制御の履歴)に基づいて観察撮影系6の位置を求めるプロセッサを含んでもよい。同様に、第2位置検出部は、スキャン制御部101Bが照明系8に対して実行した制御の内容(つまり、制御の履歴)に基づいて照明系8の位置を求めるプロセッサを含んでもよい。
〈表示部130〉
 表示部130は、制御部101の制御を受けて各種の情報を表示する。例えば、表示部130は、液晶ディスプレイ(LCD)などのフラットパネルディスプレイを含む。表示部130は、スリットランプ顕微鏡1の本体に設けられていてもよいし、コンピュータ100に設けられていてもよい。
〈操作部140〉
 操作部140は、スリットランプ顕微鏡1を操作するための操作デバイスや、情報を入力するための入力デバイスを含む。操作部140には、スリットランプ顕微鏡1に設けられたボタンやスイッチ(例えば、操作ハンドル5、倍率操作ノブ11など)や、コンピュータ100に設けられた操作デバイス(例えば、マウス、キーボードなど)が含まれる。また、操作部140は、トラックボール、操作パネル、スイッチ、ボタン、ダイアルなど、任意の操作デバイスや入力デバイスを含んでいてよい。
 図4では、表示部130と操作部140とを別々に表しているが、表示部130の少なくとも一部と操作部140の少なくとも一部とが同じデバイスであってもよい。その具体例として、タッチスクリーンがある。
〈通信部170〉
 通信部170は、スリットランプ顕微鏡1と他の装置との間におけるデータ通信を行う。データ通信の方式は任意である。例えば、通信部170は、インターネットに準拠した通信インターフェイス、専用線に準拠した通信インターフェイス、LANに準拠した通信インターフェイス、近距離通信に準拠した通信インターフェイスなどを含む。データ通信は有線通信でも無線通信でもよい。
 通信部170により送受信されるデータは暗号化されていてよい。その場合、例えば、制御部101は、送信データを暗号化する暗号化処理部と、受信データを復号化する復号化処理部とを含む。
〈管理サーバ4000〉
 管理サーバ4000の構成について説明する。図7に例示された管理サーバ4000は、制御部4010と、通信確立部4100と、通信部4200とを備える。
〈制御部4010〉
 制御部4010は、管理サーバ4000の各部の制御を実行する。制御部4010は、その他の演算処理を実行可能であってよい。制御部4010はプロセッサを含む。制御部4010は、更に、RAM、ROM、ハードディスクドライブ、ソリッドステートドライブなどを含んでいてよい。
 制御部4010は、通信制御部4011と転送制御部4012とを含む。
 通信制御部4011は、複数の眼科撮影装置2000-iと複数の端末3000-nと複数の遠隔端末5000mとを含む複数の装置の間における通信の確立に関する制御を実行する。例えば、通信制御部4011は、眼科システム1000に含まれる複数の装置のうちから後述の選択部4120によって選択された2以上の装置のそれぞれに向けて、通信を確立するための制御信号を送る。
 転送制御部4012は、通信確立部4100(及び通信制御部4011)により通信が確立された2以上の装置の間における情報のやりとりに関する制御を行う。例えば、転送制御部4012は、通信確立部4100(及び通信制御部4011)により通信が確立された少なくとも2つの装置のうちの一方の装置から送信された情報を他の装置に転送するように機能する。
 具体例として、眼科撮影装置2000-iと遠隔端末5000mとの間の通信が確立された場合、転送制御部4012は、眼科撮影装置2000-iから送信された情報(例えば、眼科撮影装置2000-iにより取得された画像、眼科撮影装置2000-iに入力された情報など)を遠隔端末5000mに転送することができる。逆に、転送制御部4012は、遠隔端末5000mから送信された情報(例えば、眼科撮影装置2000-iの動作モードの指定結果)を眼科撮影装置2000-iに転送することができる。
 転送制御部4012は、送信元の装置から受信した情報を加工する機能を有していてもよい。この場合、転送制御部4012は、受信した情報と、加工処理により得られた情報との少なくとも一方を転送先の装置に送信することができる。
 例えば、転送制御部4012は、眼科撮影装置2000-i等から送信された情報の一部を抽出して遠隔端末5000m等に送信することができる。また、眼科撮影装置2000-i等から送信された情報(例えば、被検眼Eの画像)を管理サーバ4000又は他の装置によって解析し、その解析結果(及び元の情報)を遠隔端末5000m等に送信するようにしてもよい。
 スリットランプ顕微鏡1(眼科撮影装置2000-i)から複数の断面画像が送信された場合、管理サーバ4000又は他の装置が、これら断面画像から3次元画像(例えば、スタックデータ又はボリュームデータ)を構築し、転送制御部4012が、構築された3次元画像を遠隔端末5000mに送信するように構成することが可能である。
 また、スリットランプ顕微鏡1(眼科撮影装置2000-i)からスタックデータが送信された場合、管理サーバ4000又は他の装置が、このスタックデータからボリュームデータを構築し、転送制御部4012が、構築されたボリュームデータを遠隔端末5000mに送信するように構成することが可能である。
 管理サーバ4000又は他の装置により実行可能なデータ加工処理は、上記した例には限定されず、任意のデータ処理を含んでいてよい。
〈通信確立部4100〉
 通信確立部4100は、複数の眼科撮影装置2000-iと複数の端末3000-nと複数の遠隔端末5000mとを含む複数の装置のうちから選択された少なくとも2つの装置の間における通信を確立するための処理を実行する。本実施形態において「通信の確立」とは、例えば、(1)通信が切断された状態から一方向通信を確立すること、(2)通信が切断された状態から双方向通信を確立すること、(3)受信のみが可能な状態から送信も可能な状態に切り替えること、(4)送信のみが可能な状態から受信も可能な状態に切り替えること、のうちの少なくとも1つを含む概念である。
 更に、通信確立部4100は、確立されている通信を切断する処理を実行可能である。本実施形態において「通信の切断」とは、例えば、(1)一方向通信が確立された状態から通信を切断すること、(2)双方向通信が確立された状態から通信を切断すること、(3)双方向通信が確立された状態から一方向通信に切り替えること、(4)送信及び受信が可能な状態から受信のみが可能な状態に切り替えること、(5)送信及び受信が可能な状態から送信のみが可能な状態に切り替えること、のうちの少なくとも1つを含む概念である。
 眼科撮影装置2000-i、端末3000-n、及び遠隔端末5000mのそれぞれは、他の装置(そのユーザー)を呼び出すための通信要求(呼び出し要求)と、他の2つの装置の間の通信に割り込むための通信要求(割り込み要求)とのうちの少なくとも一方を管理サーバ4000に送信することができる。呼び出し要求及び割り込み要求は、手動又は自動で発信される。管理サーバ4000(通信部4200)は、眼科撮影装置2000-i、端末3000-n、又は遠隔端末5000mから送信された通信要求を受信する。
 本実施形態において、通信確立部4100は選択部4120を含んでいてよい。選択部4120は、例えば、眼科撮影装置2000-i、端末3000-n、又は遠隔端末5000mから送信された通信要求に基づいて、眼科撮影装置2000-i、端末3000-n、及び遠隔端末5000mのうちから、当該通信要求を送信した装置以外の1以上の装置を選択する。
 選択部4120が実行する処理の具体例を説明する。眼科撮影装置2000-i又は端末3000-nからの通信要求(例えば、眼科撮影装置2000-iにより取得された画像の読影の要求)を受けた場合、選択部4120は、例えば、複数の遠隔端末5000mのうちのいずれかを選択する。通信確立部4100は、選択された遠隔端末5000mと、眼科撮影装置2000-i及び端末3000-nの少なくとも一方との間の通信を確立する。
 通信要求に応じた装置の選択は、例えば、予め設定された属性に基づいて実行される。この属性の例として、検査の種別(例えば、撮影モダリティの種別、画像の種別、疾患の種別、候補疾患の種別など)や、要求される専門度・熟練度や、言語の種別などがある。本例に係る処理を実現するために、通信確立部4100は、予め作成された属性情報が記憶された記憶部411を含んでいてよい。属性情報には、遠隔端末5000m及び/又はその使用者(医師)の属性が記録されている。
 医師の識別は、例えば、事前に割り当てられた医師IDによって行われる。また、遠隔端末5000mの識別は、例えば、事前に割り当てられた装置IDやネットワークアドレスによって行われる。典型的な例において、属性情報は、各医師の属性として、専門分野(例えば、診療科、専門とする疾患など)、専門度・熟練度、使用可能な言語の種別などを含む。
 選択部4120が属性情報を参照する場合、眼科撮影装置2000-i、端末3000-n、又は遠隔端末5000mから送信される通信要求は、属性に関する情報を含んでいてよい。例えば、眼科撮影装置2000-iから送信される読影要求(つまり、診断要求)は、次のいずれかの情報を含んでいてよい:(1)撮影モダリティの種別を示す情報;(2)画像の種別を示す情報;(3)疾患名や候補疾患名を示す情報;(4)読影の難易度を示す情報;(5)眼科撮影装置2000-i及び/又は端末3000-nのユーザーの使用言語を示す情報。
 このような読影要求を受信した場合、選択部4120は、この読影要求と記憶部4110に記憶された属性情報とに基づいて、いずれかの遠隔端末5000mを選択することができる。このとき、選択部4120は、読影要求に含まれる属性に関する情報と、記憶部4110に記憶された属性情報に記録された情報とを照合する。それにより、選択部4120は、例えば、次のいずれかの属性に該当する医師に対応する遠隔端末5000mを選択する:(1)当該撮影モダリティを専門とする医師;(2)当該画像種別を専門とする医師;(3)当該疾患(当該候補疾患)を専門とする医師;(4)当該難易度の読影が可能な医師;(5)当該言語を使用可能な医師。
 なお、医師と遠隔端末5000mとの間の対応付けは、例えば、遠隔端末5000m(又は眼科システム1000)へのログイン時に入力された医師IDによってなされる。
〈通信部4200〉
 通信部4200は、他の装置(例えば、眼科撮影装置2000-i、端末3000-n、及び遠隔端末5000mのいずれか)との間でデータ通信を行う。データ通信の方式や暗号化については、眼科撮影装置2000-iの通信部170と同様であってよい。
〈遠隔端末5000m〉
 遠隔端末5000mの構成について説明する。図8に例示された遠隔端末5000mは、制御部5010と、データ処理部5100と、通信部5200と、操作部5300とを備える。
〈制御部5010〉
 制御部5010は、遠隔端末5000mの各部の制御を実行する。制御部5010は、その他の演算処理を実行可能であってよい。制御部5010は、プロセッサ、RAM、ROM、ハードディスクドライブ、ソリッドステートドライブなどを含む。
 制御部5010は表示制御部5011を含む。表示制御部5011は、表示装置6000mを制御する。表示装置6000mは、遠隔端末5000mに含まれてもよいし、遠隔端末5000mに接続された周辺機器であってもよい。表示制御部5011は、被検眼Eの前眼部の画像を表示装置6000mに表示させる。前眼部の画像としては、3次元画像のレンダリング画像、正面画像、OCT画像、解析結果を表す画像、スリット画像などがある。
 制御部5010はレポート作成制御部5012を含む。レポート作成制御部5012は、表示制御部5011により表示された情報に関するレポートを作成するための各種の制御を実行する。例えば、レポート作成制御部5012は、レポートを作成するための画面やグラフィカルユーザーインターフェイス(GUI)を表示装置6000mに表示させる。また、レポート作成制御部5012は、ユーザーが入力した情報や、前眼部の画像や、画像の解析データなどを、所定のレポートテンプレートに入力する。
〈データ処理部5100〉
 データ処理部5100は、各種のデータ処理を実行する。
 例えば、データ処理部5100は、スリットランプ顕微鏡1(眼科撮影装置2000-i)から送信された複数の断面画像から3次元画像(例えば、スタックデータ又はボリュームデータ)を構築することができる。また、データ処理部5100は、スリットランプ顕微鏡1(眼科撮影装置2000-i)から送信されたスタックデータからボリュームデータを構築することができる。
 データ処理部5100は、レジストレーション部5105と、部分領域指定部5110と、レンダリング部5120と、解析部5130とを含む。
 レジストレーション部5105は、前眼部の正面画像と3次元画像との間のレジストレーションを行う。前述したように、前眼部カメラ70の位置(既知)と、スキャン位置検出部160からの出力とに基づいて、前眼部カメラ70により取得された正面画像と、3次元画像を取得するためのスキャンが適用された位置(スキャン位置)との間の相対位置を求めることが可能である。レジストレーション部5105は、この相対位置に基づいて、前眼部の正面画像と3次元画像との間のレジストレーションを行うことができる。
 他の例において、レジストレーション部5105は、前眼部の3次元画像をZ方向に投影して正面画像(プロジェクション画像)を構築し、前眼部カメラ70により取得された正面画像とプロジェクション画像との間のレジストレーションを行うことができる。本例のレジストレーション部5105は、前眼部カメラ70により取得された正面画像中の特徴点を特定する処理と、プロジェクション画像中の特徴点を特定する処理とを実行し、互いの特徴点の位置が合致するように正面画像とプロジェクション画像との間のレジストレーションを行う。本例によれば、スキャン位置の検出を行う必要がない。
 部分領域指定部5110は、眼科撮影装置2000-iから送信された画像又はそれに基づき表示された画像について、その部分領域を指定する。
 部分領域指定部5110により実行可能な処理の例を説明する。スリットランプ顕微鏡1(眼科撮影装置2000-i)を用いて被検眼Eの前眼部の複数の断面画像が得られた場合、スリットランプ顕微鏡1、管理サーバ4000、遠隔端末5000m、又は他の装置によって、被検眼Eの前眼部の3次元画像が形成される。このような3次元画像が遠隔端末5000mに入力されたとする。制御部5010は、前述したハードディスクドライブ又はソリッドステートドライブ等の記憶装置に3次元画像を保存する。
 表示制御部5011は、この3次元画像に基づく画像を表示装置6000mに表示させることができる。例えば、制御部5010は、3次元画像(例えば、スタックデータ又はボリュームデータ)をレンダリング部5120に送る。レンダリング部5120は、3次元画像をレンダリングして画像を形成する。表示制御部5011は、レンダリング部5120により形成された画像を表示装置6000mに表示させる。
 遠隔端末5000mのユーザー(医師)は、表示装置6000mに表示された画像の部分領域を指定することができる。この指定操作は操作部5300を用いて行われる。例えば、ユーザーは、ポインティングデバイスを用いて表示画像の所望の範囲を指定することができる。
 部分領域指定部5110は、ユーザーにより指定された表示画像の部分領域に対応する3次元画像の部分領域を特定する。ここで、表示画像は3次元画像をレンダリングして得られた画像である。したがって、表示画像の部分領域に対応する3次元画像の部分領域は、このレンダリングの処理内容に基づき容易に特定される。
 他の例を説明する。被検眼Eの他の画像(参照画像と呼ぶ)が過去に取得された場合、この参照画像を利用して3次元画像の部分領域を指定することができる。参照画像は、例えば、前眼部カメラ70により取得された正面画像であってよい。或いは、前眼部のOCT画像を参照画像とすることも可能である。
 参照画像の少なくとも一部と3次元画像の少なくとも一部とが被検眼Eの同じ部位を描出していてよい。或いは、参照画像の少なくとも一部が描出している部位と3次元画像の少なくとも一部が描出している部位との双方を描出した広域画像を更に利用することも可能である。このような画像を利用することで、レジストレーション部5105は、参照画像と3次元画像との間のレジストレーションを行うことができる。
 表示制御部5011は、参照画像(又は広域画像)を表示装置6000mに表示させることができる。ユーザーは、操作部5300を用いて、参照画像(又は広域画像)の部分領域を指定することができる。部分領域指定部5110は、ユーザーにより指定された参照画像(又は広域画像)の部分領域と、レジストレーションの結果とに基づいて、3次元画像の部分領域を指定することができる。
 以上、ユーザーの操作に基づいて3次元画像の部分領域を指定する場合の例を説明したが、手動での指定はこれらに限定されない。一方、ユーザーの操作によらず、部分領域指定部5110が自動で3次元画像の部分領域を指定するようにしてもよい。人工知能プロセッサを用いてこのような自動指定を行ってもよい。
 一例において、部分領域指定部5110は、前眼部の正面画像を解析することにより、又は、3次元画像及びそれに基づく表示画像の少なくとも一方を解析することにより、3次元画像の部分領域を指定することができる。例えば、部分領域指定部5110は、3次元画像又は表示画像にセグメンテーションを適用して被検眼Eの所定の組織に相当する画像領域を特定し、特定された画像領域に基づいて部分領域を指定することができる。被検眼Eの所定の組織は、例えば、任意の条件にしたがって決定される。この条件の例として、撮影モダリティの種別、画像の種別、(候補)疾患名などがある。
 レンダリング部5120は、画像に対してレンダリングを適用する。例えば、レンダリング部5120は、部分領域指定部5110により指定された3次元画像の部分領域に基づいて、この3次元画像をレンダリングする。
 レンダリングは任意の処理であってよく、例えば3次元コンピュータグラフィクスを含む。3次元コンピュータグラフィクスは、3次元座標系により定義された3次元空間内の仮想的な立体物(スタックデータ、ボリュームデータなどの3次元画像)を2次元情報に変換することにより立体感のある画像を作成する演算手法である。
 レンダリングの例として、ボリュームレンダリング法、最大値投影法(MIP)、最小値投影法(MinIP)、サーフェスレンダリング法、多断面再構成法(MPR)、プロジェクション画像形成、シャドウグラム形成などがある。レンダリングの更なる例として、スリットランプ顕微鏡1で得られた断面画像の再現、シャインプルーフ画像の形成などがある。また、レンダリング部5120は、このようなレンダリングとともに適用される任意の処理を実行可能であってよい。
 解析部5130は、被検眼Eの前眼部の3次元画像、そのレンダリング画像、正面画像などを解析する。
 レンダリング部5120は、前眼部の3次元画像において角膜に相当する領域(角膜領域)を特定することができる。例えば、レンダリング部5120は、角膜の表面(前面)に相当する領域(角膜表面領域)を特定することができる。また、レンダリング部5120は、角膜の裏面(後面)に相当する領域(角膜裏面領域)を特定することができる。このような画像領域特定は、例えば、セグメンテーション、エッジ検出、閾値処理など、公知の画像処理を含む。
 レンダリング部5120が角膜表面領域を特定した場合、解析部5130は、この角膜表面領域を解析して角膜曲率半径を求めることができる。例えば、解析部5130は、角膜の1以上の代表点(角膜頂点など)における曲率半径を算出することができる。レポート作成制御部5012は、解析部5130により求められた角膜曲率半径及びこれに基づく情報の少なくとも一方を、レポートテンプレートに入力することができる。ここで、角膜曲率半径に基づく情報の例として、コンタクトレンズの識別情報(型番など)がある。
 解析部5130は、レンダリング部5120により特定された角膜表面領域に基づいて、角膜の多数の位置における曲率半径を算出してもよい。つまり、解析部5130は、角膜曲率半径分布を求めてもよい。更に、解析部5130は、予め設定された標準分布からの角膜曲率半径分布の偏差を表す偏差分布を求めることができる。この処理は、角膜曲率半径分布と標準分布との間のレジストレーションと、対応位置の値同士の比較(差分など)とを含む。レポート作成制御部5012は、解析部5130により求められた偏差分布及びこれに基づく情報の少なくとも一方を、レポートテンプレートに入力することができる。ここで、偏差分布に基づく情報の例として、コンタクトレンズの識別情報(型番など)がある。
 表示制御部5011は、解析部5130により求められた偏差分布を表示装置6000mに表示させることができる。このとき、標準値に対する偏差の大きさを色で表すことができる。これにより、角膜曲率半径の偏差分布を表すカラーマップが表示される。レポート作成制御部5012は、このようなカラーマップをレポートに入力することが可能である。
 前述したように、レジストレーション部5105は、前眼部カメラ70により取得された正面画像とスキャンに基づく3次元画像との間のレジストレーションを行うことができる。表示制御部5011は、この正面画像を表示装置6000mに表示させることができる。ユーザーは、操作部5300等のユーザーインターフェイスを用いて、表示された正面画像中の注目領域を指定することができる。注目領域は、例えば、断面を表す線分、又は、3次元領域を表すエリアである。レンダリング部5120は、指定された注目領域に対応する3次元画像の部分領域を、正面画像と3次元画像との間のレジストレーションの結果に基づいて特定する。更に、レンダリング部5120は、特定された部分領域に対応するレンダリング画像を形成する。例えば、正面画像に対して線分が指定された場合、レンダリング部5120は、この線分を含む平面(断面)を表す断面画像を形成する。また、正面画像に対して2次元エリアが指定された場合、レンダリング部5120は、この2次元エリアを含む3次元領域を表すレンダリング画像(例えば、ボリュームレンダリング画像)を形成する。
 ユーザーが指定した注目領域に対応する3次元画像の部分領域をレンダリング部5120が特定した場合、表示制御部5011は、この部分領域に対応するレンダリング画像と、前眼部カメラ70により取得された正面画像とを、表示装置6000mに表示させることができる。更に、表示制御部5011は、このレンダリング画像に対応する領域を表す画像(レンダリング領域画像)を、正面画像上に表示させることができる。レンダリング領域画像は、例えば、ユーザーが正面画像に対して指定した位置を表す画像であり、典型的には、線分の位置を示す画像、又は、前述した2次元エリアの位置を示す画像である。
 レンダリング部5120は、スキャンに基づく3次元画像から立体画像を形成することができる。立体画像は、例えば、ボリュームレンダリング画像、サーフェスレンダリング画像、セグメンテーションで特定された3次元領域を表現した画像などであってよい。表示制御部5011は、レンダリング部5120により形成された立体画像を表示装置6000mに表示させることができる。ユーザーは、操作部5300等のユーザーインターフェイスを用いて、表示装置6000mに表示されている立体画像を操作することができる。この操作の例として、回転、拡大/縮小などがある。回転操作は、例えば、ドラッグ操作であってよい。拡大/縮小操作は、例えば、GUI(ウィジェット)に対する操作、スクロールホイールの操作であってよい。また、立体画像の不透明度(アルファ値)を操作することも可能である。例えば、立体画像の一部の不透明度を低く設定することで、その奥に位置する箇所を透過的に観察することができる。
 レンダリング部5120は、スキャンに基づく3次元画像中の水晶体領域を特定することができる。この処理は、例えばセグメンテーション、エッジ検出などを含む。解析部5130は、レンダリング部5120により特定された水晶体領域を解析して混濁分布を求めることができる。この処理は、例えば、閾値処理などを含む。水晶体の混濁は、白内障眼などにおいて見られる。レポート作成制御部5012は、求められた混濁分布及びこれに基づく情報の少なくとも一方を、レポートテンプレートに入力することができる。混濁分布は、例えば、マップとして表現される。混濁分布を表すマップは、混濁の強さを色で表現したカラーマップであってもよい。表示制御部5011は、このような混濁分布(マップ)を表示装置6000mに表示させることができる。また、水晶体領域を任意に回転して観察することや、水晶体領域の任意のスライスを観察することなどが可能である。また、水晶体領域に対して任意の解析(例えば、厚み測定、体積測定など)を適用することも可能である。
 レンダリング部5120は、スキャンに基づく3次元画像中の硝子体領域を特定することができる。この処理は、例えばセグメンテーション、エッジ検出などを含む。硝子体領域を任意に回転して観察することや、硝子体領域の任意のスライスを観察することなどが可能である。また、硝子体領域に対して任意の解析(例えば、後部硝子体皮質前ポケットの測定など)を適用することも可能である。
〈通信部5200〉
 通信部5200は、他の装置(例えば、眼科撮影装置2000-i、端末3000-n、及び管理サーバ4000のいずれか)との間でデータ通信を行う。データ通信の方式や暗号化については、眼科撮影装置2000-iの通信部170と同様であってよい。
〈操作部5300〉
 操作部5300は、遠隔端末5000mの操作、遠隔端末5000mへの情報入力などに使用される。本実施形態では、操作部5300はレポートの作成に使用される。操作部5300は、操作デバイスや入力デバイスを含む。操作部5300は、例えば、マウス、キーボード、トラックボール、操作パネル、スイッチ、ボタン、ダイアルなどを含む。操作部5300は、タッチスクリーンを含んでもよい。
 スリットランプ顕微鏡1の動作モードを指定するために操作部5300を用いることができる。スリットランプ顕微鏡1については、1以上の動作モードが予め設けられている。本実施形態では、3次元撮影モードを設けることができる。3次元撮影モードは、被検眼の3次元画像を取得するための動作モードである。3次元撮影モードにおいて、スリットランプ顕微鏡1の制御部101は、照明系8と観察撮影系6と移動機構60と合焦機構40及び50とを連係的に制御することにより、被検眼Eの前眼部の複数の断面画像を撮像装置13に取得させる。なお、スリットランプ顕微鏡1の動作モードは3次元撮影モードに限定されない。
 動作モードの指定に用いられるデバイスは、操作部5300に限定されない。例えば、スリットランプ顕微鏡1の操作部140又は端末3000-nを用いて動作モードを指定することができる。動作モードの指定態様はこのような手動指定に限定されない。例えば、当該被検者に対して過去に適用された動作モードを電子カルテ等から取得し、これを指定することができる。また、特定疾患に予め対応付けられた動作モードを自動で指定することができる。また、検査の種別(例えば、スクリーニング、検診、健康診断、一般診療など)に予め対応付けられた動作モードを自動で指定することができる。
〈使用形態〉
 本実施形態に係る眼科システム1000の使用形態について説明する。図9A~図9Eは、眼科システム1000の使用形態の例を示す。ここで、図9A及び図9Eは第1~第N施設のいずれかにおいて実施されるステップであり、図9B及び図9Cは管理サーバ4000において実施されるステップであり、図9Cはいずれかの遠隔端末5000mにおいて実施されるステップである。本例において、眼科撮影装置2000-iはスリットランプ顕微鏡1であるとする。
 スリットランプ顕微鏡1(及び/又は端末3000-n)と管理サーバ4000との間における通信は、既に確立されているとする。或いは、図9AのステップS1からステップS6までの期間における任意のタイミングで、スリットランプ顕微鏡1(及び/又は端末3000-n)と管理サーバ4000との間における通信を確立してもよい。また、管理サーバ4000と遠隔端末5000mとの間における通信は、既に確立されているか、或いは、図9AのステップS1から図9BのステップS14までの期間における任意のタイミングで確立される。また、図9A~図9Eに示す処理は、例えば、数分から数十分程度の時間で実行される。つまり、スリットランプ顕微鏡1で撮影を行ってから数分ないし数十分程度の時間で、そのフィードバック(レポート)が得られる。
(S1:眼科撮影装置に被検者情報を入力)
 図9Aを参照する。まず、スリットランプ顕微鏡1(又は端末3000-n)に被検者情報が入力される。入力された被検者情報は、記憶部102に保存される。スリットランプ顕微鏡1(及び/又は端末3000-n)と管理サーバ4000との間における通信が既に確立されている場合、入力された被検者情報をこの段階で管理サーバ4000に送信してもよい。被検者情報は、例えば、被検者IDと背景情報とを含む。管理サーバ4000は、被検者情報を受信した後の任意のタイミングで、遠隔端末5000mの選択(図9BのステップS13)を行うことができる。
 被検者IDは、例えば、医療施設におけるID(患者ID)、検診におけるID、健康診断におけるIDなどがある。これらは例示であって、被検者IDはこれらに限定されない。
 背景情報は、被検者に関する任意の情報であって、その例として、被検者の問診情報、所定のシートに被検者が記入した情報、被検者の電子カルテの任意の項目に記録された情報、被検者のアカウントに保存された画像などがある。典型的には、背景情報は、性別、年齢、身長、体重、疾患名、候補疾患名、検査結果(視力値、眼屈折力値、眼圧値など)、画像(前眼部のOCT画像など)、屈折矯正具(眼鏡、コンタクトレンズなど)の装用歴や度数、検査歴、治療歴などがある。これらは例示であって、背景情報はこれらに限定されない。
 例えば、スリットランプ顕微鏡1(又は端末3000-n)のユーザーは、操作部140を用いて被検者情報を入力することができる。また、制御部101及び通信部170は、当該施設に設置された情報処理システム(例えば、顧客管理システム、電子カルテシステム、医用画像アーカイビングシステム等)に通信路を介してアクセスして被検者情報を取得することができる。また、データリーダを用いて、記録媒体に記録された被検者情報を読み出すことができる。これらは例示であって、被検者情報の入力方法はこれらに限定されない。
(S2:前眼部の正面画像の取得を取得)
 スリットランプ顕微鏡1は、前眼部カメラ70による被検眼Eの前眼部の正面画像の取得を開始する。例えば、前眼部カメラ70は、前眼部の動画撮影を開始する。なお、正面画像を取得するタイミングや取得を開始するタイミングは、本例のそれに限定されない。
(S3:3次元撮影モードに設定)
 スリットランプ顕微鏡1の動作モードが3次元撮影モードに設定される。前述したように、動作モードの指定(又は選択)は、手動又は自動で行われる。
(S4:前眼部をスキャン)
 スリットランプ顕微鏡1は、ステップS3で設定された3次元撮影モードで被検眼Eの前眼部のスキャンを行う。それにより、被検眼Eの前眼部の複数の断面画像が得られる。
(S5:前眼部の3次元画像を形成)
 スリットランプ顕微鏡1の画像合成部120は、ステップS4で取得された複数の断面画像に基づいて3次元画像を形成する。前述したように、管理サーバ4000、遠隔端末5000m、又は他の装置が、3次元画像形成処理を実行するようにしてもよい。
(S6:管理サーバにデータを送信)
 スリットランプ顕微鏡1の制御部101は、通信部170を制御して、取得されたデータを管理サーバ4000に向けて送信する。送信されるデータは、ステップS1で入力された被検者情報と、ステップS2で取得が開始された正面画像の少なくとも1つと、ステップS5で形成された3次元画像と、当該施設の識別情報(施設ID)とを含む。
 スリットランプ顕微鏡1以外の装置が3次元画像形成処理を実行する場合、3次元画像の代わりに、ステップS4で取得された複数の断面画像が管理サーバ4000に送信される。
(S11:管理サーバがデータを受信)
 図9Bを参照する。管理サーバ4000の通信部4200は、ステップS6でスリットランプ顕微鏡1が送信したデータを受信する。
(S12:データを保存)
 制御部4010は、ハードディスクドライブ又はソリッドステートドライブ等の記憶装置、又は、外部のデータベースなどに、ステップS11で受信されたデータを保存する。データは、例えば被検者IDや施設IDなどに基づき検索可能に格納される。
(S13:遠隔端末を選択)
 選択部4120は、ステップS11で受信されたデータなどに基づいて、複数の遠隔端末5000mのうちのいずれかを選択する。前述したように、検査の種別(例えば、撮影モダリティの種別、画像の種別、疾患の種別、候補疾患の種別など)や、要求される専門度・熟練度や、言語の種別など、各種の属性を参照して遠隔端末5000mの選択を行うことも可能である。
 選択部4120は、それぞれの遠隔端末5000mの稼動状態(通信の確立情報)を監視する機能を備えていてよい。選択部4120は、この監視機能により、現在稼働していない遠隔端末5000m(読影等に現在使用されていない端末、読影等を現在行っているがスケジュールに余裕のある端末、使用の予約が入っていない端末など)のいずれかを選択することができる。それにより、他の被検者に関する読影等に現在使用されていない遠隔端末5000mを選択することができる。
 なお、上記監視機能は、例えば、定期的又は非定期的に遠隔端末5000mから入力される情報や、遠隔端末5000mに送信した情報に対する反応などに基づいて、各遠隔端末5000mの稼動状態をフラグ等で管理することにより実現可能である。
(S14:遠隔端末にデータを送信)
 管理サーバ4000の制御部4010は、通信部4200を制御して、ステップS11で受信されたデータの少なくとも一部を、ステップS13で選択された遠隔端末5000mに向けて送信する。送信されるデータは、ステップS1で入力された背景情報と、ステップS2で取得が開始された正面画像の少なくとも1つと、ステップS5で形成された3次元画像とを含む。また、レポート作成の期限日時(例えば、30分以内)を示す情報を遠隔端末5000mに送信してもよい。
 遠隔端末5000mが3次元画像形成処理を実行する場合、3次元画像の代わりに、ステップS4で取得された複数の断面画像が遠隔端末5000mに送信される。
(S21:遠隔端末がデータを受信)
 図9Cを参照する。遠隔端末5000mの通信部5200は、ステップS14で管理サーバ4000が送信したデータを受信する。制御部5010は、受信されたデータを前述の記憶部に保存する。
(S22:読影を開始?)
 遠隔端末5000mのユーザー(例えば、医師、オプトメトリストなど)は、所望のタイミングで読影を開始する(S22:Yes)。
(S23:正面画像を表示)
 表示制御部5011は、例えば、ステップS21で受信されたデータに含まれる正面画像を表示装置6000mに表示させる。正面画像の表示態様は、動画表示であっても静止画表示であってもよい。なお、表示された正面画像に対する操作を行うことが可能である。例えば、正面画像の向きや表示倍率を変更することが可能である。
(S24:部分領域を指定)
 ユーザーは、操作部5300を用いて、表示された正面画像の部分領域を指定することができる。ここで、前述した参照画像や広域画像を利用してもよい。
 また、部分領域の指定を自動で行うようにしてもよい。例えば、角膜表面領域、角膜裏面領域、水晶体領域、硝子体領域などを指定することが可能である。この場合、指定された領域を解析部5130によって解析することができる。
(S25:3次元画像をレンダリング)
 レンダリング部5120は、ステップS24で指定された部分領域に基づいて3次元画像をレンダリングする。それにより、ユーザーが指定した部分領域(つまり、ユーザーが注目している関心部位の画像)を表すレンダリング画像が得られる。
(S26:レンダリング画像を表示)
 表示制御部5011は、ステップS25で取得されたレンダリング画像を表示装置6000mに表示させる。
 表示制御部5011は、レンダリング画像の位置を示す位置情報を表示装置6000に表示させることができる。この位置情報は、例えば、ステップS24で指定された部分領域の位置や範囲を示す情報、又は、ステップS25で形成されたレンダリング画像の位置や範囲示す情報であってよい。位置情報は、例えば、ステップS23で表示が開始された正面画像や、前述した参照画像又は広域画像や、眼のシェーマ図などとともに表示されてよい。典型的には、このような画像又はシェーマ図における位置や範囲を示す画像を位置情報として表示することができる。
(S27:読影を終了?)
 ユーザーは、関心部位を任意に変更しながら読影を行うことができる(S27:No)。その際、ステップS1で入力された背景情報や、ステップS23で表示が開始された正面画像を参照することができる。
(S28:レポートを作成)
 読影を行いつつ又は読影が終了したら(S27:Yes)、ユーザーは、操作部5300を使用して、読影で得た情報や診断結果などを入力する。レポート作成制御部5012は、ユーザーが入力した情報やユーザーが選択した情報に基づきレポートを作成する。
(S29:管理サーバにレポートを送信)
 遠隔端末5000mの制御部5010は、通信部5200を制御して、ステップS28で作成されたレポートを管理サーバ4000に向けて送信する。
(S31:管理サーバがレポートを受信)
 図9Dを参照する。管理サーバ4000の通信部4200は、ステップS29で遠隔端末5000mが送信したレポートを受信する。
(S32:レポートを保存)
 制御部4010は、ハードディスクドライブ又はソリッドステートドライブ等の記憶装置、又は、外部のデータベースなどに、ステップS31で受信されたレポートを保存する。レポートは、例えば被検者IDや施設IDなどに基づき検索可能に格納される。
(S33:撮影を行った施設を検索)
 制御部4010は、例えば検索IDを参照することで、当該被検者の前眼部撮影を行った施設を検索する。それにより、ステップS31で受信されたレポートの送信先(例えば、ネットワークアドレス)が特定される。
(S34:検索された施設にレポートを送信)
 管理サーバ4000の制御部4010は、通信部4200を制御して、ステップS31で受信されたレポートを、ステップS33で検索された施設に向けて送信する。本例では、検索された施設に設置された端末3000-nに向けてレポートが送信される。
(S41:検索された施設の端末がレポートを受信)
 図9Eを参照する。端末3000-nは、ステップS34で管理サーバ4000が送信したレポートを受信する。
(S42:レポートを表示)
 端末3000-nは、ステップS41で受信されたレポートを、図示しない表示装置に表示させる。
(S43:レポートの内容を被検者に説明)
 端末3000-nのユーザーは、表示されたレポートを参照しつつ、読影結果、診断結果、治療方針、屈折矯正具の要否・選択などについて、被検者に説明を行う。以上で、本例に係る処理は終了となる。
〈変形例〉
 本実施形態の変形例を説明する。
 スリットランプ顕微鏡1のフォーカス位置を変更するための構成は、上記した合焦機構40及び50に限定されない。
 例えば、特開2013-248376号公報に開示された2以上の撮影部(2以上の前眼部カメラ)を利用して被検眼の2以上の画像を取得し、これら画像を解析してフォーカス位置(目標位置)を決定するように構成することが可能である。
 フォーカス位置を変更するための構成の他の例として、次のものがある。本例のスリットランプ顕微鏡は、撮像部と、駆動部と、合焦制御部とを含む。撮像部は、被検眼を撮影して右画像及び左画像を取得する。駆動部は、撮像部を含む光学系を少なくとも作動距離方向に駆動させる。合焦制御部は、撮像部より出力された右画像及び左画像に基づき、被検眼に対して自動的に合焦動作を行うように駆動部を制御する。
〈作用・効果〉
 以上に説明した実施形態の作用及び効果について説明する。
 本実施形態に係る眼科システム(1000)は、スリットランプ顕微鏡(1、眼科撮影装置2000-i)と、3次元画像形成部(画像合成部120)と、レンダリング部(5120)と、表示制御部(5011)と、レポート作成部(レポート作成制御部5012、操作部5300)と、レポート出力部(端末3000-n)とを含む。
 スリットランプ顕微鏡は、正面画像取得部(前眼部カメラ70、観察撮影系6)と、画像収集部(照明系8、観察撮影系6、合焦機構40及び50、移動機構60)とを含む。正面画像取得部は、被検眼(E)の前眼部を撮影して正面画像を取得する。画像収集部は、スリット光で前眼部を撮影して複数の画像(複数の断面画像)を収集する。
 3次元画像形成部は、スリットランプ顕微鏡の画像収集部により収集された複数の画像に基づいて3次元画像を形成する。本実施形態ではスリットランプ顕微鏡に3次元画像形成部が設けられているが、3次元画像形成部は他の装置に設けられていてもよい。
 レンダリング部は、3次元画像形成部により形成された3次元画像をレンダリングしてレンダリング画像を形成する。なお、本実施形態において、レンダリング部は、レンダリング部5120を少なくとも含み、部分領域特定部5110を更に含んでいてもよい。
 表示制御部は、正面画像取得部により取得された正面画像と、レンダリング部により形成されたレンダリング画像とを、表示手段(表示装置6000m)に表示させる。表示手段は、表示制御部と同じ装置(遠隔端末5000m)に設けられてもよいし、表示制御部が設けられた装置に接続された周辺機器であってもよい。
 レポート作成部は、表示制御部により表示手段に表示された情報(典型的には、正面画像、レンダリング画像を含む)に関するレポートを作成するためのユーザーインターフェイス(操作部5300)を含む。
 レポート出力部は、レポート作成部により作成されたレポートを出力する。本実施形態では端末3000-nがレポートを表示しているが、レポートの出力態様は表示には限定されず、例えば、紙媒体等への印刷、他装置への送信、記録媒体への記録などであってもよい。
 このように構成された本実施形態の眼科システムによれば、スリットランプ顕微鏡を用いて前眼部の3次元画像及び正面画像を取得し、3次元画像を任意にレンダリングしながらレポートを作成することができる。したがって、医師やオプトメトリストは、スリットランプ顕微鏡を用いて取得された3次元画像を自由にレンダリングしながら前眼部の所望の関心部位を観察しつつレポート作成を行うことが可能である。
 それにより、前眼部の画像を取得するために医師やオプトメトリストが遠隔地からリアルタイムで操作を行う必要がなくなる。しかも、眼科画像診断において最も広く且つ頻繁に用いられるスリットランプ顕微鏡で取得された画像を遠隔地において読影できるというメリットもある。更に、遠隔地にて作成されたレポートを、撮影を行った施設や被検者に迅速に提供することが可能になる。
 したがって、本実施形態の眼科システムによれば、スリットランプ顕微鏡を効果的に利用することが可能な眼科遠隔医療技術を提供できる。
 本実施形態の眼科システムは、通信路(1100)を介してスリットランプ顕微鏡に接続されたサーバ(4000)と、通信路(1100)を介してサーバに接続された情報処理装置(遠隔端末5000m)とを含む。
 サーバは、記憶部(制御部4010内のハードディスクドライブ、ソリッドステートドライブ等の記憶装置)と、通信部(4200)とを含む。記憶部は、予め設定された被検者識別情報(被検者ID)に関連付けられた3次元画像と正面画像とを記憶する。なお、本実施形態のように、施設識別情報(施設ID)を更に関連付けることが可能である。通信部は、少なくとも3次元画像と正面画像とを情報処理装置に送信する。
 情報処理装置は、通信部(5200)と、レンダリング部(5120)と、表示制御部(5011)と、レポート作成部(レポート作成制御部5012、操作部5300)とを含む。
 情報処理装置の通信部は、サーバから送信された少なくとも3次元画像及び正面画像を受信する。更に、情報処理装置の通信部は、レポート作成部により作成されたレポートをサーバに向けて送信する。
 サーバの通信部は、情報処理装置から送信されたレポートを受信する。更に、サーバの通信部は、このレポートの少なくとも一部を、被検眼の撮影を行ったスリットランプ顕微鏡が設置された施設に向けて送信する。レポート出力部は、被検眼の撮影を行ったスリットランプ顕微鏡が設置された施設に配置されている。本例では、スリットランプ顕微鏡1が設置された施設内の端末3000-nに向けてレポートを送信しているが、スリットランプ顕微鏡1又は他の装置にレポートを送信するようにしてもよい。
 この構成によれば、スリットランプ顕微鏡が設置された施設から離れた位置に配置された情報処理装置を利用して眼科遠隔医療を効果的に提供することが可能である。
 本実施形態において、レンダリング部は、前眼部の3次元画像中の角膜表面領域及び角膜裏面領域の少なくとも一方を特定するように構成されていてよい。
 この構成によれば、前眼部における典型的な注目部位である角膜の状態を容易に観察したり解析したりすることが可能となる。
 本実施形態において、レンダリング部は、少なくとも角膜表面領域を特定するように構成されていてよい。更に、本実施形態の眼科システムは、特定された角膜表面領域を解析して角膜曲率半径を求める第1解析部(解析部5130)を更に含んでいてよい。加えて、レポート作成部は、求められた角膜曲率半径及びこれに基づく情報(例えば、コンタクトレンズの型番など)の少なくとも一方を含むレポートを作成するように構成されていてよい。
 この構成によれば、例えばコンタクトレンズの処方などにおける典型的な注目パラメータである角膜曲率半径を容易に求めることができる。更に、角膜曲率半径が記載されたレポートを容易且つ迅速に提供することが可能になる。
 本実施形態において、レンダリング部は、少なくとも角膜表面領域を特定するように構成されていてよい。更に、本実施形態の眼科システムは、第2解析部(解析部5130)を更に含んでいてよい。第2解析部は、レンダリング部により特定された角膜表面領域を解析して角膜曲率半径分布を求め、予め設定された標準分布からの角膜曲率半径分布の偏差を表す偏差分布を求めるように構成される。加えて、レポート作成部は、求められた偏差分布及びこれに基づく情報の少なくとも一方を含むレポートを作成するように構成されていてよい。
 この構成によれば、例えばコンタクトレンズの処方などにおける典型的な注目パラメータである角膜曲率半径分布を表す情報を容易に求めることができる。更に、角膜曲率半径分布を表す情報が記載されたレポートを容易且つ迅速に提供することが可能になる。
 本実施形態において、表示制御部は、第2解析部により求められた偏差分布を表示手段に表示させるように構成されていてよい。
 この構成によれば、レポート作成者(医師、オプトメトリストなど)は、被検眼の前眼部の正面画像やレンダリング画像に加えて、角膜曲率半径分布の偏差分布を参照しながらレポートを作成することが可能となる。
 本実施形態の眼科システムは、前眼部の正面画像と3次元画像との間のレジストレーションを行うレジストレーション部(5105)を更に含んでいてよい。更に、本実施形態において、正面画像中の注目領域(例えば、断面、3次元領域など)を指定するためにユーザーインターフェイスを使用することができる。加えて、レンダリング部は、指定された注目領域に対応する3次元画像の部分領域を、レジストレーションの結果に基づき特定することができる。更にレンダリング部は、特定された部分領域に対応するレンダリング画像(例えば、スライス画像、シャインプルーフ画像、ボリュームレンダリング画像など)を形成することができる。
 この構成によれば、レポート作成者は、前眼部の注目部位を容易に指定することができる。つまり、レポート作成者は、レンダリングを適用したい箇所を容易に指定することが可能である。
 本実施形態において、表示制御部は、レンダリング部により特定された3次元画像中の部分領域に対応するレンダリング画像と正面画像とを、表示手段に表示させることができる。更に、表示制御部は、このレンダリング画像に対応する領域を表す画像を正面画像上に表示させることができる。
 この構成によれば、レポート作成者は、正面画像中のどの部位がレンダリング画像として表示されているかを容易に把握することが可能である。
 本実施形態において、レンダリング部は、前眼部の3次元画像から立体画像を形成することができる。更に、表示制御部は、形成された立体画像を表示手段に表示させることができる。加えて、表示手段に表示されている立体画像を操作(例えば、回転、拡大/縮小など)するためにユーザーインターフェイスを使用することが可能である。
 この構成によれば、レポート作成者は、前眼部を立体的に観察することができ、更に、立体画像を任意に操作しながら詳細な観察を行うことが可能である。
 本実施形態において、レンダリング部は、前眼部の3次元画像中の水晶体領域を特定することができる。更に、本実施形態の眼科システムは、特定された水晶体領域を解析して混濁分布を求める第3解析部(解析部5130)を更に含んでいてよい。加えて、レポート作成部は、求められた混濁分布及びこれに基づく情報の少なくとも一方を含むレポートを作成することができる。
 この構成によれば、例えば白内障眼の診断における典型的な注目部位である水晶体混濁の分布を容易に求めることができる。更に、水晶体混濁分布を表す情報が記載されたレポートを容易且つ迅速に提供することが可能になる。
 本実施形態において、表示制御部は、第3解析部により求められた混濁分布を表示手段に表示させるように構成されていてよい。
 この構成によれば、レポート作成者(医師、オプトメトリストなど)は、被検眼の前眼部の正面画像やレンダリング画像に加えて、水晶体混濁分布を参照しながらレポートを作成することが可能となる。
 本実施形態において、スリットランプ顕微鏡の画像収集部は、照明系(8)と、撮影系(観察撮影系6)と、移動部(移動機構60)とを含んでいてよい。照明系は、被検眼をスリット光で照明する。撮影系は、被検眼からのスリット光の戻り光を第1撮像装置(13)に導く。移動部は、照明系及び撮影系を移動する。更に、3次元画像形成部は、照明系及び撮影系を移動しつつ第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成するように構成されていてよい。
 このような構成によれば、前眼部に対する照明角度及び撮影角度を変更しつつ被検眼の複数の断面の画像を取得し、これら断面画像から3次元画像を形成することができる。
 本実施形態において、スリットランプ顕微鏡の画像収集部は、フォーカス位置変更部(合焦機構40、合焦機構50)を含んでいてよい。フォーカス位置変更部は、照明系のフォーカス位置及び撮影系のフォーカス位置の少なくとも一方を変更する。更に、3次元画像形成部は、照明系及び撮影系の少なくとも一方の移動と照明系のフォーカス位置及び撮影系のフォーカス位置の少なくとも一方の変更とを行いつつ第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成することができる。
 このような構成によれば、前眼部に対するフォーカス位置を変更しつつ複数回の撮影を行うことができ、それにより得られた複数の断面画像から3次元画像を形成することができる。
 本実施形態の眼科システムは、スリットランプ顕微鏡の動作モードを指定するための動作モード指定部を更に含んでいてよい。動作モード指定部は、例えば、遠隔端末5000mの操作部5300、スリットランプ顕微鏡1の操作部140、端末3000-n、又は、他の装置を含んでいてよい。更に、スリットランプ顕微鏡は、制御部(101)を含んでいてよい。動作モード指定部により3次元撮影モードが指定されたとき、スリットランプ顕微鏡の制御部は、照明系と撮影系と移動部とフォーカス位置変更部とを連係的に制御することにより複数の断面画像を第1撮像装置に取得させるように構成されていてよい。
 このような構成によれば、前眼部の3次元画像を形成するための複数の断面画像の収集を自動で行うことが可能になる。
 本実施形態において、正面画像取得部は、画像収集部に設けられた第1撮像装置と異なる第2撮像装置(前眼部カメラ70)を含んでいてよい。
 このような構成によれば、前眼部の3次元画像を取得するために(つまり、スキャンを行うために)画像収集部が移動しても、一定の位置から前眼部を撮影することが可能となる。
 なお、正面画像取得部は、画像収集部に設けられた第1撮像装置を用いて前眼部の正面画像を取得するように構成されていてもよい。この場合、典型的には、画像収集部によるスキャンとは別のタイミングで正面画像の取得が行われる。
 本実施形態において、画像収集部に設けられた第1撮像装置による複数の断面画像の収集と並行して、正面画像取得部の第2撮像装置は前眼部の動画撮影を行うことができる。
 これにより、画像収集部によってスキャンを行っている間も前眼部の状態を観察することが可能となる。
 本実施形態に係る眼科情報処理装置(遠隔端末5000m)は、通信部(5200)と、レンダリング部(5120)と、表示制御部(5011)と、レポート作成部(レポート作成制御部5012、操作部5300)とを含む。
 眼科情報処理装置の通信部は、スリットランプ顕微鏡(1、眼科撮影装置2000-i)で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路(1100)を介して受け付ける。眼科情報処理装置のレンダリング部は、通信部により受け付けられた3次元画像をレンダリングしてレンダリング画像を形成する。眼科情報処理装置の表示制御部は、通信部により受け付けられた正面画像とレンダリング部により形成されたレンダリング画像とを表示手段(表示装置6000m)に表示させる。レポート作成部は、表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイス(操作部5300)を含む。眼科情報処理装置の通信部は、作成されたレポートを送信する。レポートの最終的な送信先は、当該被検眼の撮影が行われた施設である。
 このような眼科情報処理装置によれば、本実施形態の眼科システムと同様に、スリットランプ顕微鏡を効果的に利用することが可能な眼科遠隔医療技術を提供することが可能である。
 本実施形態に係る処理をコンピュータに実行させるプログラムを構成することが可能である。このプログラムは、以下のステップをコンピュータに実行させるように構成される:スリットランプ顕微鏡で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路を介して受け付けるステップ;受け付けられた3次元画像をレンダリングしてレンダリング画像を形成するステップ;受け付けられた正面画像と、形成されたレンダリング画像とを表示するステップ;ユーザーからの入力を受け付けるステップ;表示された情報に関するレポートをユーザーからの入力に基づき作成するステップ;レポートを送信するステップ。
 このようなプログラムによれば、本実施形態の眼科システムと同様に、スリットランプ顕微鏡を効果的に利用することが可能な眼科遠隔医療技術を提供することが可能である。
 このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。
 このようなプログラム又は記録媒体に対して、例示的な実施形態において説明された様々な処理のいずれかを適用することが可能である。
 以上に説明した実施形態は本発明の典型的な例示に過ぎない。よって、本発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
1 スリットランプ顕微鏡
6 観察撮影系
8 照明系
13 撮像装置
40 合焦機構
50 合焦機構
60 移動機構
70 前眼部カメラ
101 制御部
120 画像合成部
140 操作部
150 合焦位置検出部
160 スキャン位置検出部
170 通信部
1000 眼科システム
2000-i 眼科撮影装置
4000 管理サーバ
4010 制御部
4020 通信部
5000m 遠隔端末
5010 制御部
5011 表示制御部
5012 レポート作成制御部
5100 データ処理部
5105 レジストレーション部
5110 部分領域指定部
5120 レンダリング部
5130 解析部
5200 通信部
5300 操作部
6000m 表示装置

 

Claims (19)

  1.  被検眼の前眼部を撮影して正面画像を取得する正面画像取得部と、スリット光で前記前眼部を撮影して複数の画像を収集する画像収集部とを含むスリットランプ顕微鏡と、
     前記複数の画像に基づいて3次元画像を形成する3次元画像形成部と、
     前記3次元画像をレンダリングしてレンダリング画像を形成するレンダリング部と、
     前記正面画像と前記レンダリング画像とを表示手段に表示させる表示制御部と、
     前記表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイスを含むレポート作成部と、
     前記レポートを出力するレポート出力部と
     を含む、眼科システム。
  2.  通信路を介して前記スリットランプ顕微鏡に接続されたサーバと、通信路を介して前記サーバに接続された情報処理装置とを含み、
     前記サーバは、
     予め設定された被検者識別情報に関連付けられた前記3次元画像と前記正面画像とを記憶する記憶部と、
     少なくとも前記3次元画像と前記正面画像とを前記情報処理装置に送信する通信部と
     を含み、
     前記情報処理装置は、
     前記サーバから送信された少なくとも前記3次元画像及び前記正面画像を受信する通信部と、
     前記レンダリング部、前記表示制御部、及び前記レポート作成部と
     を含み、
     前記情報処理装置の前記通信部は、前記レポート作成部により作成された前記レポートを前記サーバに向けて送信し、
     前記サーバの前記通信部は、前記情報処理装置から送信された前記レポートを受信し、且つ、前記レポートの少なくとも一部を前記スリットランプ顕微鏡が設置された施設に向けて送信し、
     前記レポート出力部は、前記スリットランプ顕微鏡が設置された前記施設に配置されている、
     ことを特徴とする請求項1に記載の眼科システム。
  3.  前記レンダリング部は、前記3次元画像中の角膜表面領域及び角膜裏面領域の少なくとも一方を特定する
     ことを特徴とする請求項1又は2に記載の眼科システム。
  4.  前記レンダリング部は、少なくとも前記角膜表面領域を特定し、
     前記角膜表面領域を解析して角膜曲率半径を求める第1解析部を更に含み、
     前記レポート作成部は、前記角膜曲率半径及びこれに基づく情報の少なくとも一方を含むレポートを作成する
     ことを特徴とする請求項3に記載の眼科システム。
  5.  前記レンダリング部は、少なくとも前記角膜表面領域を特定し、
     前記角膜表面領域を解析して角膜曲率半径分布を求め、予め設定された標準分布からの前記角膜曲率半径分布の偏差を表す偏差分布を求める第2解析部を更に含み、
     前記レポート作成部は、前記偏差分布及びこれに基づく情報の少なくとも一方を含むレポートを作成する
     ことを特徴とする請求項3に記載の眼科システム。
  6.  前記表示制御部は、前記偏差分布を前記表示手段に表示させる
     ことを特徴とする請求項5に記載の眼科システム。
  7.  前記正面画像と前記3次元画像との間のレジストレーションを行うレジストレーション部を更に含み、
     前記ユーザーインターフェイスは、前記正面画像中の注目領域を指定するために使用され、
     前記レンダリング部は、前記注目領域に対応する前記3次元画像の部分領域を前記レジストレーションの結果に基づき特定し、前記部分領域に対応するレンダリング画像を形成する
     ことを特徴とする請求項1~6のいずれかに記載の眼科システム。
  8.  前記表示制御部は、前記部分領域に対応する前記レンダリング画像と前記正面画像とを前記表示手段に表示させ、且つ、前記レンダリング画像に対応する領域を表す画像を前記正面画像上に表示させる
     ことを特徴とする請求項7に記載の眼科システム。
  9.  前記レンダリング部は、前記3次元画像から立体画像を形成し、
     前記表示制御部は、前記立体画像を前記表示手段に表示させ、
     前記ユーザーインターフェイスは、前記表示手段に表示されている前記立体画像を操作するために使用される
     ことを特徴とする請求項1~8のいずれかに記載の眼科システム。
  10.  前記レンダリング部は、前記3次元画像中の水晶体領域を特定し、
     前記水晶体領域を解析して混濁分布を求める第3解析部を更に含み、
     前記レポート作成部は、前記混濁分布及びこれに基づく情報の少なくとも一方を含むレポートを作成する
     ことを特徴とする請求項1~9のいずれかに記載の眼科システム。
  11.  前記表示制御部は、前記混濁分布を前記表示手段に表示させる
     ことを特徴とする請求項10に記載の眼科システム。
  12.  前記画像収集部は、
     前記被検眼をスリット光で照明する照明系と、
     前記被検眼からの前記スリット光の戻り光を第1撮像装置に導く撮影系と、
     前記照明系及び前記撮影系を移動する移動部と
     を含み、
     前記3次元画像形成部は、前記照明系及び前記撮影系を移動しつつ前記第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成する
     ことを特徴とする請求項1~11のいずれかに記載の眼科システム。
  13.  前記画像収集部は、前記照明系のフォーカス位置及び前記撮影系のフォーカス位置の少なくとも一方を変更するためのフォーカス位置変更部を更に含み、
     前記3次元画像形成部は、前記照明系及び前記撮影系の少なくとも一方の移動と前記照明系のフォーカス位置及び前記撮影系のフォーカス位置の少なくとも一方の変更とを行いつつ前記第1撮像装置により取得された複数の断面画像に基づいて3次元画像を形成する
     ことを特徴とする請求項12に記載の眼科システム。
  14.  前記スリットランプ顕微鏡の動作モードを指定するための動作モード指定部を更に含み、
     前記スリットランプ顕微鏡は、制御部を更に含み、
     前記動作モード指定部により3次元撮影モードが指定されたとき、前記制御部は、前記照明系と前記撮影系と前記移動部と前記フォーカス位置変更部とを連係的に制御することにより前記複数の断面画像を前記第1撮像装置に取得させる
     ことを特徴とする請求項13に記載の眼科システム。
  15.  前記正面画像取得部は、前記第1撮像装置と異なる第2撮像装置を含む
     ことを特徴とする請求項12~14のいずれかに記載の眼科システム。
  16.  前記第1撮像装置による前記複数の断面画像の収集と並行して、前記第2撮像装置は、前記前眼部の動画撮影を行う
     ことを特徴とする請求項15に記載の眼科システム。
  17.  スリットランプ顕微鏡で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路を介して受け付ける通信部と、
     前記3次元画像をレンダリングしてレンダリング画像を形成するレンダリング部と、
     前記正面画像と前記レンダリング画像とを表示手段に表示させる表示制御部と、
     前記表示制御部により表示された情報に関するレポートを作成するためのユーザーインターフェイスを含むレポート作成部と
     を含み、
     前記通信部は、前記レポートを送信する
     ことを特徴とする眼科情報処理装置。
  18.  スリットランプ顕微鏡で被検眼の前眼部を撮影して取得された3次元画像及び正面画像を通信路を介して受け付けるステップと、
     前記3次元画像をレンダリングしてレンダリング画像を形成するステップと、
     前記正面画像と前記レンダリング画像とを表示するステップと、
     ユーザーからの入力を受け付けるステップと、
     表示された情報に関するレポートを前記ユーザーからの入力に基づき作成するステップと、
     前記レポートを送信するステップと
     を、コンピュータに実行させるプログラム。
  19.  請求項18に記載のプログラムを記録したコンピュータ可読な非一時的記録媒体。

     
PCT/JP2018/047855 2018-03-14 2018-12-26 眼科システム、眼科情報処理装置、プログラム、及び記録媒体 WO2019176231A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/975,399 US11950849B2 (en) 2018-03-14 2018-12-26 Ophthalmic system, ophthalmic information processing apparatus, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-046158 2018-03-14
JP2018046158A JP7133950B2 (ja) 2018-03-14 2018-03-14 眼科システム、眼科情報処理装置、プログラム、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2019176231A1 true WO2019176231A1 (ja) 2019-09-19

Family

ID=67907554

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/047855 WO2019176231A1 (ja) 2018-03-14 2018-12-26 眼科システム、眼科情報処理装置、プログラム、及び記録媒体

Country Status (3)

Country Link
US (1) US11950849B2 (ja)
JP (1) JP7133950B2 (ja)
WO (1) WO2019176231A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049104A1 (ja) * 2019-09-10 2021-03-18 株式会社トプコン スリットランプ顕微鏡、眼科情報処理装置、眼科システム、スリットランプ顕微鏡の制御方法、及び記録媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7163708B2 (ja) * 2018-10-10 2022-11-01 株式会社ニコン 眼科装置、眼科方法、眼科プログラム、画像表示方法、画像表示プログラム、画像表示装置、及びレーザ治療装置
WO2020233817A1 (en) * 2019-05-23 2020-11-26 Haag-Streit Ag Ophthalmologic device with image storage
US20210128079A1 (en) 2019-10-30 2021-05-06 Nikon Corporation Image display method, storage medium, and image display device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535850A (ja) * 2001-04-10 2004-12-02 ザ ライオンズ アイ インスティチュート オブ ウェスターン オーストラリア インコーポレイテッド クライアントおよびサービスプロバイダユーザのためのバーチャルサービスシステムおよび、そのための方法
JP2012075640A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科観察システム
JP2013075160A (ja) * 2011-09-29 2013-04-25 Oculus Optikgeraete Gmbh 眼科分析方法
JP2015192915A (ja) * 2015-08-05 2015-11-05 株式会社ニデック 眼科撮影装置
JP2016159073A (ja) * 2015-03-05 2016-09-05 株式会社トプコン 細隙灯顕微鏡

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000116732A (ja) 1998-10-21 2000-04-25 Kowa Co 遠隔医療システム
US6860602B2 (en) * 2001-10-02 2005-03-01 Nidek Co., Ltd. Apparatus for examining an anterior-segment of an eye
JP5083758B2 (ja) 2007-05-21 2012-11-28 国立大学法人山梨大学 眼科遠隔診断システム
JP5989523B2 (ja) 2012-05-01 2016-09-07 株式会社トプコン 眼科装置
JP2016179004A (ja) 2015-03-24 2016-10-13 株式会社トプコン スリットランプ顕微鏡及びその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535850A (ja) * 2001-04-10 2004-12-02 ザ ライオンズ アイ インスティチュート オブ ウェスターン オーストラリア インコーポレイテッド クライアントおよびサービスプロバイダユーザのためのバーチャルサービスシステムおよび、そのための方法
JP2012075640A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科観察システム
JP2013075160A (ja) * 2011-09-29 2013-04-25 Oculus Optikgeraete Gmbh 眼科分析方法
JP2016159073A (ja) * 2015-03-05 2016-09-05 株式会社トプコン 細隙灯顕微鏡
JP2015192915A (ja) * 2015-08-05 2015-11-05 株式会社ニデック 眼科撮影装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049104A1 (ja) * 2019-09-10 2021-03-18 株式会社トプコン スリットランプ顕微鏡、眼科情報処理装置、眼科システム、スリットランプ顕微鏡の制御方法、及び記録媒体

Also Published As

Publication number Publication date
US11950849B2 (en) 2024-04-09
JP7133950B2 (ja) 2022-09-09
US20200390330A1 (en) 2020-12-17
JP2019154825A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
JP6923384B2 (ja) 眼科システム及び眼科情報処理装置
JP7381671B2 (ja) スリットランプ顕微鏡
WO2019176231A1 (ja) 眼科システム、眼科情報処理装置、プログラム、及び記録媒体
JP7228342B2 (ja) スリットランプ顕微鏡及び眼科システム
JP7321678B2 (ja) スリットランプ顕微鏡及び眼科システム
JP7345594B2 (ja) スリットランプ顕微鏡及び眼科システム
WO2019240149A1 (ja) スリットランプ顕微鏡及び眼科システム
EP3434175B1 (en) Ophthalmic system and ophthalmic information processing apparatus
JP7237219B2 (ja) 眼科システム、眼科情報処理装置、プログラム、及び記録媒体
WO2021039000A1 (ja) スリットランプ顕微鏡、眼科システム、スリットランプ顕微鏡の制御方法、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909530

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18909530

Country of ref document: EP

Kind code of ref document: A1