WO2014200042A1 - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
WO2014200042A1
WO2014200042A1 PCT/JP2014/065525 JP2014065525W WO2014200042A1 WO 2014200042 A1 WO2014200042 A1 WO 2014200042A1 JP 2014065525 W JP2014065525 W JP 2014065525W WO 2014200042 A1 WO2014200042 A1 WO 2014200042A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
boundary line
unit
cell wall
control unit
Prior art date
Application number
PCT/JP2014/065525
Other languages
English (en)
French (fr)
Inventor
広樹 大江
Original Assignee
株式会社 トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 トプコン filed Critical 株式会社 トプコン
Priority to US14/896,498 priority Critical patent/US9757026B2/en
Publication of WO2014200042A1 publication Critical patent/WO2014200042A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Definitions

  • the present invention relates to an ophthalmologic apparatus for photographing corneal endothelial cells for diagnosing the health of the cornea.
  • An ophthalmologic apparatus that measures the corneal endothelium takes a corneal endothelium image, analyzes the corneal endothelium image, measures the corneal endothelium, and detects the shape and size of the endothelial cells.
  • the corneal endothelium is formed by non-renewable endothelial cells, and the soundness of the endothelial cells is diagnosed by the size and shape of the endothelial cells.
  • the size of the endothelial cell can be determined by the density of the endothelial cell, and the shape can be determined by the change in the area of the endothelial cell.
  • the density of the endothelial cells is obtained by counting the number of endothelial cells in the photographed image, and the density of the endothelial cells can be obtained as a statistical value based on the photographed range and number. From the photographed corneal endothelium image, it is possible to obtain a boundary line that shades the cell wall of the endothelial cell in order to identify the shape and size of the endothelial cell, but the position of the boundary line is the same as the position of the cell wall.
  • the examiner displays a corneal endothelium image on a monitor or the like, and judges whether the position of the cell wall and the boundary line are coincident from the displayed corneal endothelium image.
  • the conventional ophthalmic apparatus has only a function of turning on / off the boundary line of the corneal endothelium image, and the boundary line may be difficult to see depending on the brightness of the corneal endothelium image. It was difficult to judge whether or not.
  • the present invention provides an ophthalmologic apparatus capable of easily discriminating the cell wall and boundary line of endothelial cells regardless of the brightness of the corneal endothelial image.
  • the present invention relates to an ophthalmologic apparatus that performs non-contact imaging of endothelial cells and measurement of the corneal thickness of a subject's eye, an imaging unit that images the corneal endothelium of the subject's eye, and the corneal endothelium imaged by the imaging unit
  • a control unit for performing image processing for detecting a cell wall of an endothelial cell from an image and meshing the cell wall with a boundary line; a display unit for displaying an analysis image in which the cell wall is meshed with the boundary line; and an operation unit;
  • the control unit relates to an ophthalmologic apparatus that changes the density of the boundary line based on an input from the operation unit.
  • the display unit is a touch panel that also serves as the operation unit, and the control unit detects pressing of the screen with respect to the display unit, and changes the density of the boundary line based on a sliding direction and a distance from the pressing position.
  • the present invention relates to an ophthalmologic apparatus. Furthermore, the present invention relates to an ophthalmologic apparatus in which the control unit displays the corneal endothelium image and the analysis image side by side on the display unit.
  • an ophthalmologic apparatus that performs non-contact imaging of endothelial cells and measurement of the corneal thickness of a subject's eye, the imaging unit that images the corneal endothelium of the subject's eye, and the imaging unit
  • a control unit for performing image processing for detecting a cell wall of an endothelial cell from a corneal endothelium image and meshing the cell wall with a boundary line; a display unit for displaying an analysis image in which the cell wall is meshed with the boundary line; and an operation
  • the control unit changes the density of the boundary line based on the input from the operation unit, so it is difficult to determine simply by turning the boundary line ON / OFF depending on the brightness of the corneal endothelium image.
  • the display unit is a touch panel that also serves as the operation unit, and the control unit detects pressing of the screen with respect to the display unit, and the density of the boundary line is determined based on a sliding direction and a distance from the pressing position. Therefore, operability is improved, and workability and work accuracy can be further improved. Furthermore, according to the present invention, the control unit displays the corneal endothelium image and the analysis image side by side on the display unit, so that it is easy to determine whether the position of the cell wall matches the position of the boundary line. It is possible to improve workability.
  • FIG. 1 is a schematic configuration diagram of an ophthalmologic apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram showing an XY alignment projection system and a fixation projection system in the ophthalmologic apparatus.
  • FIG. 3 is an explanatory diagram of a fixation light source that is an example of a fixation target used in the fixation projection system.
  • FIG. 4 is a schematic configuration diagram of the control device of the ophthalmologic apparatus.
  • FIG. 5 is an explanatory diagram showing a display example of an analysis result screen displayed on the display unit of the ophthalmologic apparatus.
  • FIG. 6 is an explanatory diagram showing a display example of a manual editing screen displayed on the display unit of the ophthalmologic apparatus.
  • FIG. 6A shows a case where the boundary line is minimized, and FIG. Indicates the case where the darkness of the boundary line is maximized.
  • FIG. 1 E denotes an eye to be examined, and 2 denotes an apparatus main body that can move in three axis directions of XYZ.
  • the apparatus main body 2 includes an anterior ocular segment observation optical system 3, a photographing illumination optical system 4, a photographing optical system 5, a Z alignment projection system 6, and a Z alignment detection system 7.
  • an XY alignment projection system 8 and a fixation projection system 9 are provided inside the apparatus main body 2, and the XY alignment detection system 10 is shared with the anterior ocular segment observation optical system 3. It has become.
  • the anterior ocular segment observation optical system 3 is arranged corresponding to the left and right eye E, and the main optical axis O1 of the anterior ocular segment observation optical system 3 is the optical axis of the eye E, respectively.
  • the main optical axis O1 is set so as to pass the apex P of the cornea of the eye E to be examined.
  • a half mirror 15, an objective lens 16, and a light receiving element 17 are provided on the main optical axis O1 from the eye E side, and a light shielding plate 18 that can be inserted into and removed from the main optical axis O1 is provided.
  • the photographing optical system 5, the light receiving element 17 and the like constitute an imaging unit 19.
  • the light shielding plate 18 is retracted from the main optical axis O1 when observing the anterior segment, and is inserted into the optical path when photographing corneal endothelial cells described later.
  • the photographing illumination optical system 4 has a light projection optical axis O2 that is inclined with respect to the main optical axis O1 at a predetermined angle, for example, any angle of 17 ° to 22 ° and passes through the apex P. Yes.
  • a photographing illumination light source 21, a condensing lens 22, a slit plate 23, a dichroic mirror 24, and an objective lens 25 are provided from a position away from the eye E on the projection optical axis O2.
  • a light emitting diode (LED) emitting visible light, for example, green light is used as the photographing illumination light source 21 .
  • the slit plate 23 has a slit hole, and the visible light emitted from the photographing illumination light source 21 is irradiated as slit light. Further, the width of the slit formed by the slit plate 23 is limited to a width at which the reflected light reflected from the surface of the cornea C and the reflected light from the endothelium can be separated.
  • a light source 26, a condenser lens 27, and a slit plate 28 are provided on an optical axis O ⁇ b> 3 branched by the dichroic mirror 24.
  • the light source 26 a light emitting diode (LED) emitting infrared light is used.
  • the dichroic mirror 24 transmits green light and reflects infrared light.
  • the slit plate 23, the slit plate 28 and the cornea C are conjugate with respect to the objective lens 25.
  • the photographing optical system 5 has a photographing optical axis O4 that is symmetric with respect to the light projecting optical axis O2 with respect to the main optical axis O1, and the photographing optical axis O4 transmits the vertex P.
  • an objective lens 31, a dichroic mirror 32, and a mirror 34 are provided from the eye E side.
  • the photographing optical axis O 4 is deflected by the mirror 34, and a focus adjusting relay lens 35 and a mirror 37 are provided on the photographing optical axis O 4, and the light beam reflected by the mirror 37 is coupled to the light receiving element 17. It has come to be imaged.
  • a shielding plate 36 can be inserted into and removed from the photographing optical axis O4 that has passed through the relay lens 35.
  • the dichroic mirror 32 has a transmission characteristic of transmitting visible light and reflecting infrared light.
  • the relay lens 35 can be moved in the optical axis direction by a lens driving mechanism 39.
  • a light receiving sensor 38 is provided on the optical axis O5 reflected and deflected by the dichroic mirror 32, and the light receiving sensor 38 and the cornea C are conjugate with respect to the objective lens 31.
  • the dichroic mirror 32 has an optical characteristic of reflecting infrared light and transmitting green light, and guides infrared light emitted from the light source 26 and reflected by the cornea C to the light receiving sensor 38.
  • the dichroic mirror 32 and the light receiving sensor 38 constitute the Z alignment detection system 7.
  • a relay lens 41 and a dichroic mirror 42 are provided on the optical axis O6 branched by the half mirror 15, and a fixation light source 43 is provided on the optical axis passing through the dichroic mirror 42. As shown in FIG.
  • the fixation light source 43 is a light emitting element holding plate 44 provided with a plurality of light emitting diodes (LEDs) 45.
  • the LEDs 45 are arranged in a plurality, for example, two or three (in the figure, three 45a, 45b, 45c) in the width direction of the slit light with the passage position of the optical axis O6 as the center, and further, It arrange
  • 8 and 6 LEDs 45 are arranged on three and two concentric circles in the slit width direction.
  • the plurality of LEDs 45 emit visible light, for example, green light, and can be individually turned on.
  • the pitch of the LEDs 45a, 45b, 45c provided in the width direction is determined so that the light receiving element 17 (imaging unit 19) passes through the photographing optical system 5 when the subject fixes the LEDs 45a, 45b, 45c. ) Is set so that the corneal endothelium images obtained in (1) overlap within a required range.
  • a relay lens 47 and an XY alignment light source 46 are provided on the optical axis reflected by the dichroic mirror 42.
  • the XY alignment light source 46 a light emitting diode emitting infrared light is used.
  • the relay lens 47, the XY alignment light source 46, and the like constitute the XY alignment projection system 8.
  • FIG. 4 shows an outline of the control device 51 of the ophthalmologic apparatus.
  • the control device 51 mainly includes the imaging unit 19, the alignment detection unit 48, the fixation light source 43, the main body drive unit 52, a storage unit 53, an operation unit 55, and a display unit 54.
  • the display unit 54 is a touch panel that also serves as an operation unit, and various operations can be performed via the display unit 54.
  • the control unit 49 drives the main body driving unit 52 based on the detection result to displace the apparatus main body 2 in the alignment direction.
  • the control unit 49 controls the imaging unit 19 and the fixation light source 43 in synchronization, controls the individual lighting of the LEDs 45a, 45b, and 45c, and combines the images of endothelial cells (corneal endothelium) by the imaging unit 19. Image).
  • a corneal endothelium image 59 (described later) acquired by the imaging unit 19 is sent to the control unit 49, and detection of cell walls of the endothelial cells, calculation of the number and density of the endothelial cells, calculation of the corneal thickness, and the like are performed. Analysis processing is performed. Thereafter, the required image processing is performed on the corneal endothelial image 59 based on the analysis result, and the image is stored in the storage unit 53 or displayed on the display unit 54.
  • FIG. 5 shows an analysis result screen 57 displayed on the display unit 54 after the imaging of the corneal endothelium by the imaging unit 19.
  • the corneal endothelium image 59 and the analysis image 61 are displayed side by side at the center of the analysis result screen 57, and the anterior segment image 62 and various analysis results 63 are displayed on the right side of the analysis image 61.
  • the corneal endothelium image 59 is an original image of the corneal endothelium that has not been subjected to image processing, and the analysis image 61 performs image processing on the corneal endothelium image 59 to detect the cell wall of the detected endothelial cell 64.
  • the image is shaded by a predetermined color, for example, a black boundary line 65.
  • the analysis result 63 includes corneal thickness (CCT), cell density (CD), coefficient of variation (CV), hexagonal cell appearance rate (HEX), number of analyzed cells (N), minimum cell area (MIN), maximum Analytical values such as cell area (MAX), average cell area (AVG), cell area standard deviation (SD), etc. are displayed, and graphs showing the distribution of the shape and area of the endothelial cells 64 are displayed.
  • the In the analysis result screen 57 when the analysis image 61 is pressed with a finger or the like, the control unit 49 can detect the direction and distance in which the finger is slid, and the detected slide direction and distance are detected. Based on the above, the shading (transparency) of the boundary line 65 can be changed.
  • the finger pressing the analysis image 61 is slid downward, the color of the boundary line 65 becomes light, and finally the boundary line 65 disappears to match the corneal endothelium image 59. Further, by sliding the finger pressing the analysis image 61 upward, the color of the boundary line 65 is darkened, and finally the boundary line 65 is displayed in black, and the analysis image 61 shown in FIG. It comes to agree with.
  • a re-imaging button 67, a manual edit button 68, and various instruction input buttons such as a next button 69 are displayed at the bottom of the screen, and the examiner presses the instruction input button with a finger or the like. As a result, an instruction corresponding to each instruction input button is input to the control unit 49.
  • FIG. 6A and 6B show the manual editing screen 71.
  • An edit image 72 is displayed at the center of the manual edit screen 71, and a thumbnail image 73 is displayed at the left end of the edit image 72.
  • the manual edit screen 71 has a border line addition button 74, a border line deletion button 75, an exclusion button 76, an image processing button 77, an enlargement / reduction button 78, an undo button 79, and an application button at the right and bottom ends of the screen.
  • Various instruction input buttons such as a button 81 and a cancel button 82 are displayed, and an instruction corresponding to each instruction input button is input to the control unit 49 when the examiner presses the instruction input button with a finger or the like. It has become.
  • the thumbnail image 73 is an image representing the entire analysis image 61
  • the edited image 72 is an enlarged image obtained by enlarging a designated portion in the thumbnail image 73 with a designated magnification.
  • the thumbnail image 73 and the edited image 72 are the same.
  • the designated position is changed, and the image displayed as the edited image 72 can be switched.
  • the edited image 72 is an enlarged image of a part of the thumbnail image 73, the edited image 72 is pressed, and a finger is slid in an arbitrary direction while maintaining the pressed state.
  • the display position of the edited image 72 can be shifted according to the sliding direction and distance.
  • the control unit 49 moves the finger when a portion other than the edited image 72 and the thumbnail image 73 on the manual editing screen 71 is pressed with a finger.
  • the sliding direction and distance can be detected, and the density of the boundary line 65 can be changed based on the detected sliding direction and distance. For example, when the finger pressed on the manual editing screen 71 is slid downward, as shown in FIG. 6A, the color of the boundary line 65 becomes light, and finally the boundary The line 65 disappears and coincides with the corneal endothelium image 59 displayed on the analysis result screen 57. Further, when the finger pressed on the manual editing screen 71 is slid upward, the boundary line 65 becomes darker as shown in FIG.
  • a line 65 is displayed in black and matches the analysis image 61 displayed on the analysis result screen 57.
  • the mode can be switched to a mode for adding the boundary line 65 in the edited image 72, and the cell wall is placed at the position of the boundary.
  • the boundary line 65 does not exist, the boundary line 65 can be added by tracing the cell wall on the screen.
  • the boundary line deletion button 75 it is possible to switch to the mode for deleting the boundary line 65 in the edited image 72, and when the boundary line 65 exists in a place other than the cell wall, By pressing the extra boundary line 65 on the screen, the boundary line 65 can be deleted.
  • the exclusion button 76 it is possible to switch to a mode in which the endothelial cells 64 in the edited image 72 surrounded by the boundary line 65 are excluded from analysis, and the endothelial cells 64 are displayed on the screen.
  • the pressed endothelial cell 64 can be excluded from the analysis target.
  • the control unit 49 can perform image processing, and an image with an edge enhanced to make the endothelial cell 64 easy to see can be displayed.
  • the enlargement / reduction button 78 the specified magnification of the edited image 72 can be changed, and the edited image 72 can be enlarged or reduced.
  • the control unit 49 is input with the necessary conditions for shooting, instructions such as the start of shooting, and the like. Instructions such as image editing and execution of required processing are input.
  • the operation of the ophthalmologic apparatus will be described.
  • the light source 26 is turned on, the reflected light from the cornea C is received by the light receiving sensor 38, and the deviation between the light receiving position on the light receiving sensor 38 and the reference position is obtained, so that the deviation becomes zero.
  • the apparatus main body 2 is displaced in the Z direction. Since the detection light emitted from the Z alignment projection system 6 has a slit shape, the light receiving sensor 38 may be a line sensor extending in the width direction of the slit light. After the Z alignment is completed, or in parallel with the Z alignment, spot-like detection light is emitted from the XY alignment light source 46, reflected by the cornea C, and the reflected detection light is received by the light receiving element 17. Then, the deviation between the light receiving position on the light receiving element 17 and the reference position is obtained.
  • the apparatus main body 2 is displaced in the X direction or the Y direction so that the deviation becomes 0, and alignment is executed. After alignment is complete, corneal endothelium imaging is started.
  • the LEDs 45a, 45b, 45c located at the center of the fixation light source 43 are turned on one by one at a predetermined time interval. Further, the photographing illumination light source 21 is turned on in synchronization with the lighting of the LEDs 45a, 45b, and 45c, and the corneal C is irradiated with illumination light that has become slit light through the slit plate 23.
  • the LED 45a When one of the LEDs 45a, 45b, 45c, for example, the LED 45a is turned on, the visual axis of the subject is fixed to the LED 45a, and the endothelium imaging in the state of the eye E at that time is performed. Furthermore, by individually lighting the LEDs 45b and 45c, the direction of the visual axis changes, and corneal endothelium imaging of different parts can be performed.
  • the photographing result is displayed on the display unit 54 as the analysis result screen 57.
  • the examiner compares the corneal endothelium image 59 displayed side by side with the analysis result screen 57 and the analysis image 61, and slides the finger pressing the analysis image 61 up and down to show the density of the boundary line 65.
  • the corneal endothelium image 59 is captured normally and whether the boundary line 65 is correctly screened on the cell wall of the endothelial cell 64.
  • the next region is imaged by pressing the button 69 to the next region. The same determination as above is performed for the analysis result screen 57 at the next site. If the examiner determines that the corneal endothelium image 59 has not been captured normally, the re-imaging button 67 is pressed to image the same region, and the analysis result screen displayed on the display unit 54 A determination is again made for 57.
  • the manual edit button 68 is pressed to display the display unit 54. Is switched from the analysis result screen 57 to the manual editing screen 71, and editing processing is performed. On the manual editing screen 71, the examiner presses the enlargement / reduction button 78 to change the magnification of the editing image 72, and presses the required position of the thumbnail image 73 to approximate the position to be confirmed. Is displayed as the edited image 72, and a finger to which the edited image 72 is pressed is slid to display a portion to be confirmed.
  • the examiner presses a portion other than the edited image 72 and the thumbnail image 73 on the manual editing screen 71 with a finger and slides the pressed finger up and down to change the density of the boundary line 65, thereby allowing the examiner to change the shade of the boundary line 65. It is determined whether the position of the cell wall of the endothelial cell 64 matches the position of the boundary line 65. Based on the above determination, the examiner presses each instruction input button to perform a predetermined editing process such as addition or deletion of the boundary line 65. After editing, the application button 81 is pressed to return the display of the display unit 54 to the analysis result screen 57, and the editing process is terminated.
  • the analysis unit 61 is pressed with a finger or the like, and the pressed finger is slid up and down, so that the control unit 49 slides and slides.
  • the density of the boundary line 65 is changed.
  • the control unit 49 can be moved in the slide direction and the direction by pressing a portion other than the editing image 72 and the thumbnail image 73 with a finger or the like and sliding the pressed finger up and down. The density of the boundary line 65 is changed based on the distance.
  • the analysis image 61 shaded by a line 65 is displayed side by side, and the corneal endothelial image 59 and the analysis image 61 can be compared on the same screen, so that the position of the cell wall of the endothelial cell 64 and the analysis It is possible to easily determine whether the positions of the boundary lines 65 coincide with each other, and workability can be improved.
  • the display unit 54 is a touch panel, various instructions can be directly input from the screen, and operability can be improved.
  • the display unit 54 is a touch panel, but the operation unit 55 such as a mouse is clicked on the screen, and the operation unit 55 is moved up and down in the clicked state.
  • the shading of the boundary line 65 may be changed.
  • a scroll bar may be provided on the analysis result screen 57 and the manual editing screen 71, and the density of the boundary line 65 may be changed by moving the scroll bar with a finger or the operation unit 55. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

非接触にて内皮細胞の撮影及び被検眼の角膜の膜厚測定を行う眼科装置であって、被検眼の角膜内皮を撮影する撮像部(19)と、該撮像部で撮影された角膜内皮画像から内皮細胞の細胞壁を検出して該細胞壁を境界線で網がけする画像処理を行う制御部(49)と、前記細胞壁が前記境界線で網がけされた解析画像を表示する表示部(54)と、操作部(55)とを具備し、前記制御部は前記操作部からの入力に基づき前記境界線の濃淡を変更する。

Description

眼科装置
 本発明は角膜の健全性を診断する為の角膜の内皮細胞を撮影する眼科装置に関するものである。
 角膜内皮の測定を行う眼科装置では、角膜内皮画像を撮影し、該角膜内皮画像を解析することにより角膜内皮を測定し、内皮細胞の形状や大きさ等を検出している。
 角膜内皮は再生不能な内皮細胞によって形成されており、内皮細胞の健全性は、内皮細胞の大きさ、形状によって診断される。又、内皮細胞の大きさは、内皮細胞の密度によって判定することができ、形状は内皮細胞の面積の変動によって判断できる。内皮細胞の密度は、撮影された画像内の内皮細胞の個数を数えることで、撮影した範囲と個数により統計値としての内皮細胞の密度が得られる。
 撮影された角膜内皮画像からは、内皮細胞の形状や大きさを特定する為の、内皮細胞の細胞壁を網がけした境界線を解析により得ることができるが、境界線の位置は細胞壁の位置と必ずしも一致しているわけではなく、解析を行う際には、検者が角膜内皮画像をモニタ等に表示し、表示された角膜内皮画像から細胞壁と境界線の位置が一致しているかを判断し、必要に応じて境界線の追加や削除等の編集処理を行う必要がある。
 然し乍ら、従来の眼科装置では、角膜内皮画像の境界線をON/OFFする機能しか有しておらず、角膜内皮画像の明るさによっては境界線が見え難いことがあり、細胞壁と境界線の位置が一致しているかを判断するのが困難であった。
特開2007−130246号公報
 本発明は斯かる実情に鑑み、角膜内皮画像の明暗に拘らず、内皮細胞の細胞壁と境界線とを容易に判別可能な眼科装置を提供するものである。
 本発明は、非接触にて内皮細胞の撮影及び被検眼の角膜の膜厚測定を行う眼科装置であって、被検眼の角膜内皮を撮影する撮像部と、該撮像部で撮影された角膜内皮画像から内皮細胞の細胞壁を検出して該細胞壁を境界線で網がけする画像処理を行う制御部と、前記細胞壁が前記境界線で網がけされた解析画像を表示する表示部と、操作部とを具備し、前記制御部は前記操作部からの入力に基づき前記境界線の濃淡を変更する眼科装置に係るものである。
 又本発明は、前記表示部は前記操作部を兼ねるタッチパネルであり、前記制御部は前記表示部に対する画面の押下を検出し、押下位置からのスライド方向及び距離に基づき前記境界線の濃淡を変更する眼科装置に係るものである。
 更に又本発明は、前記制御部は、前記角膜内皮画像と前記解析画像とを前記表示部に並べて表示させる眼科装置に係るものである。
 本発明によれば、非接触にて内皮細胞の撮影及び被検眼の角膜の膜厚測定を行う眼科装置であって、被検眼の角膜内皮を撮影する撮像部と、該撮像部で撮影された角膜内皮画像から内皮細胞の細胞壁を検出して該細胞壁を境界線で網がけする画像処理を行う制御部と、前記細胞壁が前記境界線で網がけされた解析画像を表示する表示部と、操作部とを具備し、前記制御部は前記操作部からの入力に基づき前記境界線の濃淡を変更するので、前記角膜内皮画像の明暗により前記境界線を単にON/OFFするだけでは判別し難かった箇所についても、前記細胞壁の位置と前記境界線の位置とが一致しているかを容易に判別することができ、作業性及び作業の正確性を向上させることができる。
 又本発明によれば、前記表示部は前記操作部を兼ねるタッチパネルであり、前記制御部は前記表示部に対する画面の押下を検出し、押下位置からのスライド方向及び距離に基づき前記境界線の濃淡を変更するので、操作性が向上し、作業性及び作業の正確性を更に向上させることができる。
 更に又本発明によれば、前記制御部は、前記角膜内皮画像と前記解析画像とを前記表示部に並べて表示させるので、細胞壁の位置と境界線の位置とが一致しているかを容易に判別することができ、作業性を向上させることができる。
 図1は本発明の実施例に係る眼科装置の概略構成図である。
 図2は該眼科装置に於けるXYアライメント投影系、固視投影系を示す概略構成図である。
 図3は前記固視投影系に用いられる固視標の一例である固視光源の説明図である。
 図4は前記眼科装置の制御装置の概略構成図である。
 図5は前記眼科装置の表示部に表示される解析結果画面の表示例を示す説明図である。
 図6は前記眼科装置の表示部に表示されるマニュアル編集画面の表示例を示す説明図であり、図6(A)は境界線の濃さを最小にした場合を示し、図6(B)は該境界線の濃さを最大にした場合を示している。
 以下、図面を参照しつつ本発明の実施例を説明する。
 先ず、本発明の実施例に係る眼科装置の概略構成について、図1~図3により説明する。
 図1中、Eは被検眼、2はXYZの三軸方向に移動可能な装置本体を示している。該装置本体2の内部に、前眼部観察光学系3と、撮影用照明光学系4と、撮影光学系5と、Zアライメント投影系6と、Zアライメント検出系7とを有している。
 更に、図2に示される様に、前記装置本体2の内部にはXYアライメント投影系8、固視投影系9が設けられ、XYアライメント検出系10は前記前眼部観察光学系3と兼用となっている。
 更に、構成を説明する。
 図1に於いて、前記前眼部観察光学系3は左右の被検眼Eに対応して配設され、前記前眼部観察光学系3の主光軸O1はそれぞれ前記被検眼Eの光軸と合致する様に設けられ、前記主光軸O1は前記被検眼Eの角膜の頂点Pを通過する様に設定される。
 前記主光軸O1上に前記被検眼E側からハーフミラー15、対物レンズ16、受光素子17が設けられ、前記主光軸O1に対して挿脱可能な遮光板18が設けられている。前記受光素子17には、CCD素子が用いられ、又、該受光素子17は前記対物レンズ16に関して被検眼Eの角膜Cと共役の位置に配置されている。前記撮影光学系5及び前記受光素子17等は撮像部19を構成する。
 前記遮光板18は、前眼部観察時には前記主光軸O1から退避し、且つ、後述の角膜内皮細胞撮影時には光路中に挿入される。
 前記撮影用照明光学系4は、前記主光軸O1に対して所定角度、例えば17°~22°のいずれかの角度で傾斜し、前記頂点Pを通過する投光光軸O2を有している。該投光光軸O2上に被検眼Eから離反する位置から撮影用照明光源21、集光レンズ22、スリット板23、ダイクロイックミラー24、対物レンズ25が設けられている。
 前記撮影用照明光源21としては、可視光、例えば、緑色光を発する発光ダイオード(LED)が用いられる。前記スリット板23はスリット孔が穿設されており、前記撮影用照明光源21から発せられた可視光がスリット光として、照射される。又、前記スリット板23で形成されるスリット幅は、前記角膜C表面で反射された反射光と内皮からの反射光とが分離できる幅に制限される。
 前記Zアライメント投影系6は前記ダイクロイックミラー24によって分岐される光軸O3上に光源26、集光レンズ27、スリット板28が設けられている。前記光源26としては、赤外光を射出する発光ダイオード(LED)が用いられる。
 前記ダイクロイックミラー24は緑色光を透過し、赤外光を反射する様になっている。又、前記スリット板23及び前記スリット板28と前記角膜Cとは前記対物レンズ25に関して共役となっている。
 前記撮影光学系5は、前記主光軸O1に対して前記投光光軸O2に関し対称となっている撮影光軸O4を有し、該撮影光軸O4は前記頂点Pを透過する。
 該撮影光軸O4上には、前記被検眼E側から対物レンズ31、ダイクロイックミラー32、ミラー34を有している。該撮影光軸O4は前記ミラー34で偏向され、更に撮影光軸O4上には焦点調整用のリレーレンズ35、ミラー37が設けられ、該ミラー37で反射された光束は前記受光素子17に結像される様になっている。前記リレーレンズ35を通過した撮影光軸O4には遮蔽板36が挿脱可能となっている。又、前記ダイクロイックミラー32は可視光を透過させて赤外光を反射する透過特性を有する。前記リレーレンズ35は、レンズ駆動機構39によって光軸方向に移動可能となっている。
 前記ダイクロイックミラー32で反射され偏向される光軸O5上には受光センサ38が設けられ、該受光センサ38と前記角膜Cとは前記対物レンズ31に関し共役となっている。前記ダイクロイックミラー32は赤外光を反射し、緑色光を透過する光学特性を有しており、前記光源26で射出され、前記角膜Cで反射された赤外光を前記受光センサ38に導く。前記ダイクロイックミラー32、前記受光センサ38は前記Zアライメント検出系7を構成する。
 前記ハーフミラー15で分岐された光軸O6上にはリレーレンズ41、ダイクロイックミラー42が設けられ、更に該ダイクロイックミラー42の通過光軸上には固視光源43が設けられている。
 該固視光源43は、図3に示される様に、発光素子保持板44に複数の発光ダイオード(LED)45が設けられたものである。該LED45は、前記光軸O6の通過位置を中心とし、スリット光の幅方向に複数、例えば2個又は3個(図示では3個45a,45b,45c)配設され、更に前記光軸O6の通過位置を中心とした円周上に所定角度ピッチで配設される。図示では、スリット幅方向に3、2つの同心円上に8及び6の前記LED45が配置された例が示されている。前記複数のLED45は、可視光、例えば緑色光を発光し、個々に独立して点灯可能となっている。
 尚、幅方向に設けられた前記LED45a,45b,45cのピッチは、被検者が前記LED45a,45b,45cを固視した場合に、前記撮影光学系5を介し前記受光素子17(撮像部19)で得られる角膜内皮画像が所要範囲でオーバラップする様に設定される。
 前記ダイクロイックミラー42で反射された光軸上には、リレーレンズ47、XYアライメント用光源46が設けられている。該XYアライメント用光源46には、赤外光を発する発光ダイオードが用いられる。前記リレーレンズ47、前記XYアライメント用光源46等は、前記XYアライメント投影系8を構成する。
 前記受光センサ38が受光した結果、及び前記受光素子17が受光した結果は、アライメント検出部48で検出され、検出結果は制御部49に出力される。該制御部49は検出結果に基づき本体駆動部52(図4参照)を制御し、前記装置本体2を、XYZの所要の方向に移動させ、被検眼Eと前記装置本体2とのアライメントを実行する。
 図4は、眼科装置の制御装置51の概略を示している。
 該制御装置51は、主に前記撮像部19、前記アライメント検出部48、前記固視光源43、前記本体駆動部52、記憶部53、操作部55、表示部54を具備している。尚、本実施例に於いては、該表示部54は操作部を兼ねるタッチパネルであり、該表示部54を介して各種操作が行える様になっている。
 前記アライメント検出部48からアライメント検出結果が入力されると、前記制御部49は検出結果に基づき前記本体駆動部52を駆動し、前記装置本体2をアライメントさせる方向に変位させる。又、前記制御部49は前記撮像部19及び前記固視光源43を同期制御し、前記LED45a,45b,45cの個々の点灯を制御し、合わせて前記撮像部19による内皮細胞の画像(角膜内皮画像)を取得する。
 又、前記撮像部19で取得された角膜内皮画像59(後述)は前記制御部49に送出され、内皮細胞の細胞壁の検出、内皮細胞の数及び密度の演算、角膜厚の演算等の所定の解析処理が行われる。その後、解析結果に基づき前記角膜内皮画像59に対して所要の画像処理がなされ、前記記憶部53に格納され、或は前記表示部54に表示される。
 図5は、前記撮像部19による角膜内皮の撮影後、前記表示部54に表示される解析結果画面57を示している。
 該解析結果画面57の画面中央部には、前記角膜内皮画像59と解析画像61が並んで表示され、該解析画像61の画面右側に前眼部画像62及び各種解析結果63が表示される。
 前記角膜内皮画像59は、画像処理を施していない角膜内皮の元画像となっており、前記解析画像61は、前記角膜内皮画像59に対して画像処理を行い、検出した内皮細胞64の細胞壁を所定の色、例えば黒色の境界線65で網がけした画像となっている。
 又、前記解析結果63としては、角膜厚(CCT)、細胞密度(CD)、変動係数(CV)、六角細胞出現率(HEX)、解析細胞数(N)、最小細胞面積(MIN)、最大細胞面積(MAX)、平均細胞面積(AVG)、細胞面積標準偏差(SD)等の解析値が表示されると共に、前記内皮細胞64の形状の分布や面積の分布等を表すグラフ等が表示される。
 尚、前記解析結果画面57では、前記解析画像61を指等で押下した際に、前記制御部49が指をスライドさせた方向及び距離を検出できる様になっており、検出したスライド方向及び距離に基づき、前記境界線65の濃淡(透明度)を変更できる様になっている。
 例えば、前記解析画像61を押下した指を下方向にスライドさせることで前記境界線65の色が薄くなり、最終的には該境界線65が消えて前記角膜内皮画像59と一致する。又、前記解析画像61を押下した指を上方向にスライドさせることで前記境界線65の色が濃くなり、最終的には該境界線65が黒く表示されて図5に示される前記解析画像61と一致する様になっている。
 又、前記解析結果画面57は画面下部には、再撮影ボタン67、マニュアル編集ボタン68、次の部位へボタン69等の各種指示入力ボタンが表示され、検者が指等で指示入力ボタンを押下することで、各指示入力ボタンに対応した指示が前記制御部49に入力される様になっている。
 前記再撮影ボタン67を押下することで、同一部位について再度撮影を行わせることができ、前記マニュアル編集ボタン68を押下することで、前記表示部54の表示をマニュアル編集画面71(後述)に切替えることができ、又撮影する部位が2つ以上ある場合には、前記次の部位へボタン69を押下することで次の部位の撮影を行わせることができる。
 図6(A)(B)は、前記マニュアル編集画面71を示している。
 該マニュアル編集画面71の画面中央部には編集画像72が表示され、該編集画像72の画面左端部にはサムネイル画像73が表示されている。又、前記マニュアル編集画面71の画面右端部及び下端部には、境界線追加ボタン74、境界線削除ボタン75、除外ボタン76、画像処理ボタン77、拡大縮小ボタン78、元に戻すボタン79、適用ボタン81、キャンセルボタン82等の各種指示入力ボタンが表示され、検者が指等で指示入力ボタンを押下することで、各指示入力ボタンに対応した指示が前記制御部49に入力される様になっている。
 前記サムネイル画像73は、前記解析画像61全体を表す画像であり、前記編集画像72は、前記サムネイル画像73中の指定された箇所を指定倍率で拡大した拡大画像となっている。尚、図中に於いては、指定倍率が1倍となっているので、前記サムネイル画像73と前記編集画像72とは同一となっている。
 前記マニュアル編集画面71では、例えば検者が指により前記サムネイル画像73中の所定の箇所を押下することで、指定位置が変更され、前記編集画像72として表示される画像を切替えることができる。
 又、該編集画像72が前記サムネイル画像73の一部の拡大画像となっている場合には、前記編集画像72を押下し、押下状態を維持したまま指を任意の方向にスライドさせることで、スライドさせた方向及び距離に応じて該編集画像72の表示位置をずらすことができる。
 又、前記マニュアル編集画面71では、前記解析結果画面57と同様、前記マニュアル編集画面71の前記編集画像72及び前記サムネイル画像73以外の箇所を指で押下した際に、前記制御部49が指をスライドさせた方向及び距離を検出できる様になっており、検出したスライド方向及び距離に基づき、前記境界線65の濃淡を変更できる様になっている。
 例えば、前記マニュアル編集画面71に押下された指を下方向にスライドさせた際には、図6(A)に示される様に、前記境界線65の色が薄くなり、最終的には該境界線65が消えて前記解析結果画面57に表示された前記角膜内皮画像59と一致する。又、前記マニュアル編集画面71に押下された指を上方向にスライドさせた際には、図6(B)に示される様に、前記境界線65の色が濃くなり、最終的には該境界線65が黒く表示されて前記解析結果画面57に表示された前記解析画像61と一致する様になっている。
 前記編集画像72の編集を行う際には、前記境界線追加ボタン74を押下することで、前記編集画像72中の前記境界線65を追加するモードへと切替えることができ、細胞壁の箇所に前記境界線65が存在しない場合に、画面上で細胞壁をなぞることで前記境界線65を追加することができる。
 又、前記境界線削除ボタン75を押下することで、前記編集画像72中の前記境界線65を削除するモードへと切替えることができ、該境界線65が細胞壁以外の箇所に存在する場合に、画面上で余分な前記境界線65を押下することで、該境界線65を削除することができる。
 又、前記除外ボタン76を押下することで、前記境界線65で囲まれた前記編集画像72中の前記内皮細胞64を解析から除外するモードへと切替えることができ、画面上で前記内皮細胞64を押下することで、押下した該内皮細胞64を解析対象から除外することができる。
 又、前記画像処理ボタン77を押下することで、前記制御部49に画像処理を行わせ、前記内皮細胞64を見易くする為にエッジを強調した画像を表示させることができる。又、前記拡大縮小ボタン78を押下することで、前記編集画像72の指定倍率を変更し、前記編集画像72を拡大或は縮小させることができる。
 又、前記元に戻すボタン79を押下することで、前記マニュアル編集画面71に於いて編集された内容を破棄し、元の状態に戻すことができる。前記適用ボタン81を押下することで、前記マニュアル編集画面71に於いて編集された内容を適用し、前記解析結果画面57へと戻ることができる。更に、前記キャンセルボタン82を押下することで、前記マニュアル編集画面71に於いて編集された内容を破棄し、前記解析結果画面57へと戻ることができる。
 而して、検者が前記表示部54に表示された各指示入力ボタンを押下することで、前記制御部49に撮影に必要な条件、撮影開始等の指示が入力されると共に、表示された画像の編集及び所要の処理の実行等の指示が入力される。
 以下、眼科装置の作用について説明する。
 先ず、前記光源26を点灯し、前記角膜Cでの反射光を前記受光センサ38により受光し、該受光センサ38上での受光位置と基準位置との偏差を求め、該偏差が0になる様にZ方向に前記装置本体2を変位させる。尚、前記Zアライメント投影系6から射出される検出光は、スリット状であるので、前記受光センサ38はスリット光の幅方向に延びるラインセンサとしてもよい。
 Zアライメントが完了した後、或はZアライメントと並行して前記XYアライメント用光源46から点状の検出光が射出され、前記角膜Cで反射され、反射された検出光は前記受光素子17で受光され、該受光素子17上での受光位置と基準位置との偏差が求められる。該偏差が0になる様にX方向又はY方向に前記装置本体2を変位させ、アライメントを実行する。
 アライメント完了後、角膜内皮撮影が開始される。
 前記固視光源43の中心に位置する前記LED45a,45b,45cが所定の時間間隔で1つずつ点灯される。更に、前記撮影用照明光源21が前記LED45a,45b,45cの点灯と同期して点灯され、前記スリット板23を経てスリット光となった照明光が前記角膜Cに照射される。
 前記LED45a,45b,45cの1つ、例えば前記LED45aが点灯されることで、被検者の視軸が前記LED45aに固視され、その時の被検眼Eの状態での内皮撮影が行われる。更に前記LED45b,45cを個々に点灯させることで、視軸の向きが変り、異なる部位の角膜内皮撮影を行うことができる。
 撮影結果は前記解析結果画面57として前記表示部54に表示される。
 検者は、前記解析結果画面57に並んで表示されている前記角膜内皮画像59と前記解析画像61を見比べ、又該解析画像61を押下した指を上下にスライドさせて前記境界線65の濃淡を調整し、前記角膜内皮画像59が正常に撮影されているか、又前記内皮細胞64の細胞壁に前記境界線65が正しく網がけされているかを判断する。
 前記角膜内皮画像59が正常に撮影され、前記境界線65が正しく網がけされていると検者が判断した場合には、前記次の部位へボタン69を押下して次の部位の撮影を行い、次の部位に於ける前記解析結果画面57についても上記と同様の判断を行う。
 前記角膜内皮画像59が正常に撮影されていないと検者が判断した場合には、前記再撮影ボタン67を押下して同一部位の撮影を行い、前記表示部54に表示された前記解析結果画面57について再度判断を行う。
 又、前記角膜内皮画像59は正常に撮影されているが、前記境界線65が正しく網がけされていないと検者が判断した場合には、前記マニュアル編集ボタン68を押下し、前記表示部54の表示が前記解析結果画面57から前記マニュアル編集画面71へと切替えられ、編集処理が行われる。
 該マニュアル編集画面71に於いては、検者は前記拡大縮小ボタン78を押下して前記編集画像72の倍率を変化させ、前記サムネイル画像73の所要の位置を押下して確認したい箇所の概略位置を前記編集画像72として表示させ、該編集画像72を押下した指をスライドさせて確認したい箇所を表示させる。
 更に、前記マニュアル編集画面71の前記編集画像72及び前記サムネイル画像73以外の箇所を指で押下し、押下した指を上下にスライドさせて前記境界線65の濃淡を変化させることで、検者が前記内皮細胞64の細胞壁の位置と前記境界線65の位置が一致しているかを判断する。
 上記判断に基づき、検者は各指示入力ボタンを押下して前記境界線65の追加や削除等の所定の編集処理を行う。編集後は、前記適用ボタン81を押下して前記表示部54の表示を前記解析結果画面57へ戻し、編集処理を終了する。
 最後に、該解析結果画面57に於いて前記次の部位へボタン69を押下することで、当該部位に於ける角膜内皮の撮影が終了する。
 上述の様に、本実施例では、前記解析結果画面57に於いて、指等により前記解析画像61を押下し、押下した指を上下にスライドさせることで、前記制御部49がスライド方向及び距離に基づいて前記境界線65の濃淡を変更する様になっている。又、前記マニュアル編集画面71に於いても、前記編集画像72及び前記サムネイル画像73以外の部分を指等で押下し、押下した指を上下にスライドさせることで、前記制御部49がスライド方向及び距離に基づいて前記境界線65の濃淡を変更する様になっている。
 従って、画像の明暗により該境界線65を単にON/OFFするだけでは判別し難かった箇所についても、前記内皮細胞64の細胞壁の位置と前記境界線65の位置が一致しているかを容易に判別することができ、作業性及び編集処理の正確性を向上させることができる。
 又、前記解析結果画面57に於いて、前記撮像部19にて撮影された角膜内皮の元画像である前記角膜内皮画像59と、該角膜内皮画像59中の前記内皮細胞64の細胞壁を前記境界線65で網がけした前記解析画像61とを並べて表示しており、同じ画面上で前記角膜内皮画像59と前記解析画像61とを見比べることができるので、前記内皮細胞64の細胞壁の位置と前記境界線65の位置が一致しているかを容易に判別することができ、作業性を向上させることができる。
 更に、本実施例では、前記表示部54をタッチパネルとしているので、各種指示を画面上から直接入力可能であり、操作性を向上させることができる。
 尚、本実施例に於いては、前記表示部54をタッチパネルとしているが、マウス等の前記操作部55により画面上をクリックし、クリックした状態で前記操作部55を上下に移動させることで前記境界線65の濃淡を変更する様にしてもよい。
 又、前記解析結果画面57及び前記マニュアル編集画面71にスクロールバーを設け、指により、或は前記操作部55によりスクロールバーを移動させることで前記境界線65の濃淡を変更する様にしてもよい。
 2    装置本体
 19   撮像部
 49   制御部
 51   制御装置
 54   表示部
 55   操作部
 57   解析結果画面
 59   角膜内皮画像
 61   解析画像
 64   内皮細胞
 65   境界線
 71   マニュアル編集画面
 72   編集画像
 73   サムネイル画像

Claims (3)

  1.  非接触にて内皮細胞の撮影及び被検眼の角膜の膜厚測定を行う眼科装置であって、被検眼の角膜内皮を撮影する撮像部と、該撮像部で撮影された角膜内皮画像から内皮細胞の細胞壁を検出して該細胞壁を境界線で網がけする画像処理を行う制御部と、前記細胞壁が前記境界線で網がけされた解析画像を表示する表示部と、操作部とを具備し、前記制御部は前記操作部からの入力に基づき前記境界線の濃淡を変更する眼科装置。
  2.  前記表示部は前記操作部を兼ねるタッチパネルであり、前記制御部は前記表示部に対する画面の押下を検出し、押下位置からのスライド方向及び距離に基づき前記境界線の濃淡を変更する請求項1の眼科装置。
  3.  前記制御部は、前記角膜内皮画像と前記解析画像とを前記表示部に並べて表示させる請求項1又は請求項2の眼科装置。
PCT/JP2014/065525 2013-06-11 2014-06-05 眼科装置 WO2014200042A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/896,498 US9757026B2 (en) 2013-06-11 2014-06-05 Ophthalmic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-122689 2013-06-11
JP2013122689A JP6270348B2 (ja) 2013-06-11 2013-06-11 眼科装置

Publications (1)

Publication Number Publication Date
WO2014200042A1 true WO2014200042A1 (ja) 2014-12-18

Family

ID=52022332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065525 WO2014200042A1 (ja) 2013-06-11 2014-06-05 眼科装置

Country Status (3)

Country Link
US (1) US9757026B2 (ja)
JP (1) JP6270348B2 (ja)
WO (1) WO2014200042A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464569B2 (ja) * 2014-05-19 2019-02-06 株式会社ニデック 角膜内皮細胞解析プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269413A (ja) * 1993-03-17 1994-09-27 Topcon Corp 眼科画像処理装置
JP2011224128A (ja) * 2010-04-19 2011-11-10 Univ Of Tokyo 脊椎疾患診断支援装置、及び脊椎疾患診断支援プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0628281B1 (en) * 1993-06-10 1998-12-02 Konan Common Co., Ltd. Method for obtaining images of a cornea and apparatus for same
JP4801974B2 (ja) 2005-11-10 2011-10-26 株式会社トプコン 細胞画像処理装置,角膜内皮細胞画像処理装置,細胞画像処理プログラム,及び角膜内皮細胞画像処理プログラム
JP2008036303A (ja) * 2006-08-10 2008-02-21 Topcon Corp 角膜内皮細胞画像処理装置及び角膜内皮細胞画像処理プログラム
JP5776609B2 (ja) * 2012-03-30 2015-09-09 株式会社ニデック 角膜内皮細胞撮影装置
JP5887191B2 (ja) * 2012-04-19 2016-03-16 株式会社トーメーコーポレーション 角膜撮影装置および角膜撮影方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269413A (ja) * 1993-03-17 1994-09-27 Topcon Corp 眼科画像処理装置
JP2011224128A (ja) * 2010-04-19 2011-11-10 Univ Of Tokyo 脊椎疾患診断支援装置、及び脊椎疾患診断支援プログラム

Also Published As

Publication number Publication date
US20160128564A1 (en) 2016-05-12
US9757026B2 (en) 2017-09-12
JP2014239730A (ja) 2014-12-25
JP6270348B2 (ja) 2018-01-31

Similar Documents

Publication Publication Date Title
EP2668893B1 (en) Ophthalmologic photographing apparatus
US9687143B2 (en) Ophthalmic photography device, ophthalmic photography method, and ophthalmic photography program
US9049990B2 (en) Corneal endothelial cell photographing apparatus
US9204792B2 (en) Corneal endothelial cell photographing apparatus
JP5862142B2 (ja) 角膜内皮細胞撮影装置
WO2022138102A1 (ja) 眼科装置および眼科装置の制御プログラム
JP5566711B2 (ja) 眼科装置
JP6363275B2 (ja) 眼科装置
JP6008023B2 (ja) 角膜内皮細胞撮影装置
JP6270348B2 (ja) 眼科装置
JP6124556B2 (ja) 眼科装置及び眼科撮影方法
JP2013244363A (ja) 眼底撮影装置
JP5864550B2 (ja) 眼科測定装置
US9723983B2 (en) Corneal endothelial cell photographing apparatus
JP6120686B2 (ja) 角膜内皮細胞撮影装置
JP2016013210A (ja) 眼科検査情報処理装置、及び眼科検査情報処理プログラム
JP4104302B2 (ja) 前眼部断面解析装置及び前眼部断面解析プログラム
JP4909108B2 (ja) 角膜撮影装置
JP6643603B2 (ja) 眼科装置
JP5871089B2 (ja) 角膜内皮細胞撮影装置
JP2014079378A (ja) 角膜内皮細胞撮影装置
JP5807727B2 (ja) 角膜内皮細胞撮影装置
JP2017144125A (ja) 眼科装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14811412

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14896498

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14811412

Country of ref document: EP

Kind code of ref document: A1